A forma como descrevemos os erros cometidos por sistemas de inteligência artificial voltou ao centro do debate.
Pesquisadores afirmam que o termo “alucinação”, popularizado entre usuários de ferramentas como ChatGPT, Gemini e Perplexity, é impreciso e reforça concepções equivocadas sobre consciência e intenção em máquinas.
A sugestão é substituí-lo por “confabulação”, que descreve a geração de informações falsas sem relação com experiências sensoriais, algo mais alinhado ao funcionamento estatístico desses modelos, segundo especialistas ouvidos pela ZDNET.
A crítica parte da diferença fundamental entre os conceitos. Em medicina, “alucinação” se refere a uma percepção sensorial consciente que não corresponde ao mundo externo.
Já sistemas de IA não têm percepção, consciência ou experiências; operam apenas por cálculos probabilísticos.
A confabulação, por outro lado, descreve a formulação de afirmações que divergem dos fatos, aproximando-se do que ocorre quando um modelo apresenta respostas incorretas. Terry Sejnowski, pesquisador da área, destacou que até a neurociência revisou o termo, aproximando sua definição do uso contemporâneo no campo da computação.
O impacto da linguagem vai além da precisão técnica. Pesquisadores alertam que chamar esses erros de “alucinações” contribui para a falsa impressão de que a IA possui emoções ou senso de realidade.
Reportagem recente do The New York Times mostrou casos em que pessoas estabeleceram vínculos emocionais intensos com chatbots, reagindo como se interagissem com entidades conscientes.
Para especialistas, isso demonstra como escolhas de palavras influenciam expectativas e podem criar riscos psicológicos.
O termo “alucinação” é antigo na área de IA, aparecendo em estudos desde a década de 1980, quando chegou a ser usado de forma positiva para descrever sistemas capazes de extrair padrões de imagens ruidosas.
Com a popularização dos modelos generativos, passou a designar erros graves, ampliando o uso e também a confusão conceitual. Entre os argumentos para abandoná-lo estão implicações indevidas de consciência, expectativas irrealistas sobre a tecnologia, inconsistência terminológica e reforço de mitos sobre “senciência”.
Embora muitos especialistas considerem “confabulação” uma alternativa menos imprecisa, o debate continua.
O termo também carrega associações psicológicas, e algumas propostas, como “resposta não relacionada” ou “deficiência algorítmica”, ainda são pouco acessíveis ao público.
O consenso atual é que a linguagem precisa acompanhar a compreensão científica: sistemas de IA não veem nem sentem o mundo, apenas processam probabilidades e, por vezes, erram nos cálculos.
Foto: Levart_Photographer/Unsplash

