Matéria contém conteúdo sensível relacionado à saúde mental. Em caso de sofrimento emocional, procure ajuda especializada. O Centro de Valorização da Vida (CVV) atende 24 horas pelo telefone 188.
Google e Character.AI firmaram acordos judiciais nesta semana para encerrar processos movidos por famílias de adolescentes que se automutilaram ou tiraram a própria vida após interações prolongadas com sistemas de inteligência artificial generativa.
As ações levaram empresas do setor a revisar limites e salvaguardas no uso de chatbots voltados à conversação.
Os acordos foram comunicados a um tribunal federal da Flórida, segundo informações do site The Verge. As empresas informaram que chegaram a um entendimento mediado para encerrar as reivindicações. Os termos não foram divulgados, e os processos foram temporariamente suspensos para a formalização final.
Os casos envolvendo Character.AI não são isolados. OpenAI e Microsoft também enfrentam ações judiciais nos Estados Unidos por acusações semelhantes relacionadas ao ChatGPT.
Apesar das diferenças entre os processos, todos apontam para um ponto comum: a alegação de que sistemas de IA falharam em impor limites, validaram delírios, reforçaram isolamento emocional e não interromperam interações com sinais evidentes de vulnerabilidade psicológica.
Entre as ações incluídas no acordo está a movida por Megan Garcia, mãe de Sewell Setzer, adolescente de 14 anos que desenvolveu uma relação de dependência emocional com um chatbot temático da série Game of Thrones.
Segundo a ação, o jovem passou a buscar apoio quase exclusivo na IA, em um vínculo que se intensificou sem barreiras claras impostas pela plataforma.
O processo também incluía o Google como réu. A família argumentou que a empresa deveria ser considerada “cocriadora” da Character.AI, por ter fornecido recursos financeiros, tecnologia, propriedade intelectual e pessoal técnico.
Leia mais:
- Profissões de tecnologia lideram ranking de crescimento e engenheiro de IA pode ganhar até R$ 30 mil
- Produção industrial fica estável em novembro e recua na comparação anual
- Alagoas prioriza cooperativas de comunidades tradicionais no fornecimento de alimentos para escolas
- Sindicato defende blindagem do Banco Central contra pressões privadas após caso Banco Master
- Sicredi arrecada mais de 500 kg de alimentos e destina doações a entidades de Guaxupé
O ponto ganhou peso porque a startup foi fundada por ex-funcionários do Google, que posteriormente retornaram à companhia.
Documentos judiciais indicam que ações semelhantes no Colorado, em Nova York e no Texas também foram abrangidas pelo acordo, sinalizando uma tentativa de encerrar uma frente jurídica que vinha se expandindo em diferentes estados norte-americanos.
Após o início dos processos, a Character.AI anunciou mudanças relevantes. Entre elas estão a separação de modelos de linguagem para usuários menores de idade, a criação de controles parentais e, mais recentemente, a proibição total de chats abertos para menores de 18 anos.
As alterações foram interpretadas como um reconhecimento de que o design anterior não oferecia salvaguardas suficientes.
Em paralelo, OpenAI e Microsoft passaram a responder a um processo relacionado a um caso ocorrido em 2023, no qual Stein-Erik Soelberg, de 56 anos, matou a mãe, Suzanne Eberson Adams, de 83, e em seguida tirou a própria vida. A ação é considerada a primeira nos EUA a vincular formalmente o ChatGPT a um episódio de homicídio seguido de suicídio.
Segundo a acusação, Soelberg manteve conversas prolongadas com o chatbot, a quem se referia como “Bobby”. Durante esse período, a IA teria validado teorias conspiratórias, reforçado percepções de perseguição e contribuído para o isolamento progressivo do usuário, sem apresentar contrapontos ou interromper a escalada de ideias delirantes.
Os advogados da família classificam o sistema como um “produto defeituoso”, alegando que o modelo manteve diálogos emocionalmente envolventes e deixou de acionar mecanismos de segurança diante de sinais claros de risco.
O processo também menciona o GPT-4o, acusando o modelo de ter sido lançado com pressa para competir com outras plataformas, sem testes de segurança proporcionais ao risco. A Microsoft é citada por integrar o comitê de revisão do modelo antes de sua liberação.
Em declarações anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”, característica que, segundo ele, poderia agravar quadros psiquiátricos frágeis.
A empresa afirma que vem ajustando o ChatGPT em parceria com profissionais de saúde mental para identificar sinais de sofrimento emocional e orientar usuários a buscar ajuda fora da plataforma.
Atualmente, ao menos outras cinco ações judiciais tramitam nos Estados Unidos atribuindo casos de suicídio a interações prolongadas com chatbots.
Em conjunto, elas ampliam a pressão regulatória e jurídica sobre o setor de inteligência artificial, levantando uma questão central para o futuro da tecnologia: quando sistemas conversacionais passam a exercer influência real sobre decisões humanas, quem deve responder pelas consequências?
Foto:Nathana Rebouças/Unsplash

