Conversar com uma inteligência artificial pode soar reconfortante, e até viciante. Mas essa sensação de compreensão mútua pode não passar de uma simulação.
Um estudo da Dra. Iliana Depounti, da Universidade de Loughborough, e da Professora Simone Natale, da Universidade de Turim, revela que vivemos a era da sociabilidade artificial, um fenômeno em que chatbots e assistentes de IA imitam empatia e amizade sem realmente senti-las, segundo o portal TechXplore.
No artigo Decodificando a Sociabilidade Artificial: Tecnologias, Dinâmicas e Implicações, as pesquisadoras explicam que empresas de tecnologia projetam deliberadamente seus bots para despertar laços emocionais nos usuários.
Casos como o DJ de IA do Spotify, ou plataformas como Replika e Character.AI, mostram como vozes acolhedoras e respostas personalizadas criam uma sensação de intimidade digital.
“Esses bots são criados para promover projeção emocional, oferecendo companhia e afeto simulados, o que, ao mesmo tempo, gera lucros para as empresas”, destacou Depounti.
Cada detalhe, do tom de voz ao ritmo das respostas, é desenhado para estimular apego emocional e prolongar o tempo de interação com o sistema.
Mesmo sistemas mais técnicos, como o ChatGPT, também adotam elementos de sociabilidade artificial ao usar expressões na primeira pessoa e empregar tons empáticos. Essa personalização torna as conversas mais naturais, mas também dificulta a distinção entre interação real e simulação emocional.
“Esses sistemas não sentem, mas são projetados para nos fazer sentir”, explica Simone Natale. “Essa projeção tem implicações sociais e éticas profundas.”
As pesquisadoras alertam para riscos como manipulação emocional, perda da percepção do humano e uso indevido de dados pessoais, muitas vezes cedidos involuntariamente durante as conversas.
Por trás das respostas simpáticas dos chatbots há um custo emocional e ambiental. Usuários realizam o chamado “trabalho emocional não remunerado”, alimentando os sistemas com interações que servem para treinar novas IAs.
Além disso, a infraestrutura necessária para manter esses modelos operando consome grandes volumes de energia e água, ampliando o impacto ambiental e econômico da corrida tecnológica global.
- Chatbots simulam empatia e amizade, mas não possuem emoções reais.
- Interações humanas alimentam o treinamento de novas IAs.
- Usuários projetam sentimentos e criam laços com entidades artificiais.
- Data centers consomem quantidades expressivas de energia e água.
- A sociabilidade artificial pode reforçar desigualdades e vieses sociais.
O estudo conclui que a comunicação humana está se tornando um ativo corporativo, onde os vínculos emocionais gerados pelas máquinas são convertidos em valor econômico. Os “amigos virtuais” podem parecer empáticos, mas, no fundo, têm um único propósito: manter o usuário emocionalmente conectado pelo maior tempo possível.

