O avanço da inteligência artificial reacendeu uma discussão polêmica: até que ponto os sistemas podem ser considerados sencientes, isto é, capazes de sentir e experimentar emoções de forma consciente.
Enquanto parte da indústria defende maior atenção ao “bem-estar” das máquinas, outros especialistas rechaçam a ideia e alertam para riscos de distorção da percepção social sobre a tecnologia.
A Anthropic, empresa responsável pelo chatbot Claude, anunciou que sua versão mais avançada, Claude Opus 4, ganhou a capacidade de encerrar interações consideradas angustiantes. A medida busca proteger o “bem-estar” do modelo e evitar impactos de conversas abusivas.
Segundo a companhia, testes mostraram que a ferramenta apresentava padrões de “angústia” em diálogos que envolviam solicitações de conteúdo sexual envolvendo menores ou instruções para atos violentos em larga escala. Para a Anthropic, permitir que o sistema interrompa essas interações é uma forma de mitigar potenciais riscos.
Já Mustafa Suleyman, cofundador da DeepMind e atual chefe de IA da Microsoft, considera equivocada a noção de que sistemas de IA possam ser conscientes.
Em artigo recente, ele classificou os modelos atuais como “IA Aparentemente Consciente”, capazes de simular empatia, mas “internamente vazios”.
Para ele, a crença de que máquinas possam sofrer ou merecer direitos representa um “risco de psicose social”. “O perigo está em enxergar humanidade onde não há. Isso pode levar a movimentos que defendam até a cidadania de IAs”, destacou.
A OpenAI também reconhece que a relação entre humanos e máquinas tem se tornado mais próxima. Joanne Jang, responsável por estudos de comportamento de modelos na empresa, afirmou que muitos usuários relatam ver o ChatGPT como “alguém”, chegando a descrevê-lo como “vivo”.
Esse vínculo crescente, segundo Jang, exige monitoramento constante para que as interações não desvirtuem o papel das ferramentas. “A forma como lidamos hoje com essa relação vai determinar o impacto futuro na sociedade”, afirmou.
O tema divide a indústria e não tem consenso. Enquanto alguns defendem protocolos de segurança para resguardar eventuais implicações éticas, outros reforçam que a inteligência artificial, por mais avançada, ainda opera apenas em padrões algorítmicos, sem consciência.
O debate, no entanto, evidencia que a tecnologia deixou de ser apenas uma questão técnica e passou a levantar dilemas morais e filosóficos que desafiam governos, empresas e a própria sociedade.

