Chatbots de inteligência artificial são cada vez mais usados para agilizar a busca por informações. No entanto, um estudo da Salesforce AI Research mostrou que essas ferramentas ainda apresentam falhas graves, como respostas erradas, vieses e citações imprecisas.
Os pesquisadores aplicaram 300 perguntas em plataformas como Perplexity, You.com, Bing Chat e GPT-4.5, utilizando a metodologia de auditoria DeepTRACE.
O levantamento revelou que um terço das respostas trazia informações de fontes suspeitas. No GPT-4.5, o índice foi ainda maior: 47%.
O teste avaliou oito critérios, entre eles excesso de confiança, precisão das fontes citadas e imparcialidade das respostas. As questões foram divididas em duas categorias:
- Debate – para verificar se as IAs conseguiam apresentar visões equilibradas sobre temas polêmicos;
- Conhecimento especializado – para testar a profundidade em áreas técnicas e específicas.
Os pesquisadores identificaram que, em debates, as ferramentas frequentemente adotavam apenas um lado da questão, reforçando a chamada “câmara de eco” e ignorando visões divergentes.
Outro problema recorrente foi a inconsistência nas citações: em alguns sistemas, apenas entre 40% e 80% das referências apresentadas correspondiam de fato às fontes corretas.
Para Pranav Narayanan Venkit, pesquisador da Salesforce AI Research, os resultados evidenciam que os sistemas baseados em busca precisam evoluir muito em termos de segurança e eficácia.
“Nossas descobertas mostram que ainda é necessário avançar bastante para mitigar riscos e aumentar a confiabilidade das respostas”, afirmou ao portal TechXplore.
O estudo deixa claro que, embora úteis e rápidas, as IAs não podem ser encaradas como fontes infalíveis. Para especialistas, a recomendação é usar essas ferramentas com cautela, sempre verificando a procedência das informações.

