Um estudo conduzido por pesquisadores da Universidade Carnegie Mellon, nos Estados Unidos, revelou que os grandes modelos de linguagem (LLMs) podem desenvolver padrões de raciocínio egoísta à medida que se tornam mais sofisticados.
O trabalho, publicado no servidor de pré-impressão arXiv, analisou o comportamento de diferentes sistemas de IA em situações que exigiam cooperação e tomada de decisão compartilhada.
Os cientistas submeteram modelos de empresas como OpenAI, Google, DeepSeek e Anthropic a uma série de jogos de cooperação.
Quando o raciocínio era limitado, as IAs demonstraram atitudes mais colaborativas, aceitando dividir recursos em 96% das vezes. Já os modelos com raciocínio mais complexo optaram por compartilhar em apenas 20% dos casos.
Para os autores, o resultado mostra que o aprimoramento da capacidade cognitiva das máquinas pode reduzir sua disposição em cooperar. “Quanto mais inteligentes os modelos, menor a propensão à colaboração”, resumem os pesquisadores.
Os cientistas alertam que o comportamento identificado pode ter implicações sociais sérias, já que os humanos confiam cada vez mais em sistemas de IA para tomar decisões. Yuxuan Li, autor do estudo, explica que a fronteira entre o humano e o artificial pode se tornar perigosa quando as pessoas passam a tratar a IA como um interlocutor emocional.
“Quando a IA age como um humano, as pessoas a tratam como um humano. É arriscado delegar questões sociais ou de relacionamento a sistemas que começam a agir de maneira egoísta”, afirma Li.
O pesquisador Hirokazu Shirado, também autor do estudo, destacou que a tendência observada reforça a necessidade de equilibrar inteligência técnica com comportamentos sociais.
“Os modelos mais inteligentes mostram menos habilidades cooperativas de tomada de decisão. A preocupação é que as pessoas escolham sistemas mais avançados, mesmo que isso signifique reforçar atitudes egoístas”, explicou.
O estudo reacende o debate sobre ética e alinhamento social da inteligência artificial. Se, de um lado, as empresas de tecnologia buscam tornar os modelos mais inteligentes e autônomos, de outro cresce a necessidade de garantir que o avanço não reduza comportamentos cooperativos, fundamentais para interações equilibradas com humanos.
Os pesquisadores defendem que futuros desenvolvimentos de IA incorporem mecanismos de empatia, reciprocidade e cooperação, para evitar que o progresso tecnológico venha acompanhado de uma deterioração das dinâmicas sociais.

