• Itaim Bibi, São Paulo
  • Telefone: (11) 3900-1256
  • Whatsapp: (11) 9 8363-8746
  • Email: contato@corporisbrasil.com.br
Corporis Brasil
Login
  • HOME
  • A CORPORIS
    • QUEM SOMOS
    • PARA EMPRESAS
    • PARA PROFISSIONAIS
    • CALCULADORA
    • COOPERATIVA
  • NOTÍCIAS
  • BLOG
    • BLOG
    • NEWS
    • MATERIAIS RICOS
  • CONTATO
Home Após casos envolvendo adolescentes, Google e Character.AI fecham acordos e revisam uso de chatbots
Google e Character.ia

Após casos envolvendo adolescentes, Google e Character.AI fecham acordos e revisam uso de chatbots

  • Victor Nabeiro
  • 8 de janeiro de 2026

Matéria contém conteúdo sensível relacionado à saúde mental. Em caso de sofrimento emocional, procure ajuda especializada. O Centro de Valorização da Vida (CVV) atende 24 horas pelo telefone 188.

Google e Character.AI firmaram acordos judiciais nesta semana para encerrar processos movidos por famílias de adolescentes que se automutilaram ou tiraram a própria vida após interações prolongadas com sistemas de inteligência artificial generativa.

As ações levaram empresas do setor a revisar limites e salvaguardas no uso de chatbots voltados à conversação.

Os acordos foram comunicados a um tribunal federal da Flórida, segundo informações do site The Verge. As empresas informaram que chegaram a um entendimento mediado para encerrar as reivindicações. Os termos não foram divulgados, e os processos foram temporariamente suspensos para a formalização final.

Os casos envolvendo Character.AI não são isolados. OpenAI e Microsoft também enfrentam ações judiciais nos Estados Unidos por acusações semelhantes relacionadas ao ChatGPT.

Apesar das diferenças entre os processos, todos apontam para um ponto comum: a alegação de que sistemas de IA falharam em impor limites, validaram delírios, reforçaram isolamento emocional e não interromperam interações com sinais evidentes de vulnerabilidade psicológica.

Entre as ações incluídas no acordo está a movida por Megan Garcia, mãe de Sewell Setzer, adolescente de 14 anos que desenvolveu uma relação de dependência emocional com um chatbot temático da série Game of Thrones.

Segundo a ação, o jovem passou a buscar apoio quase exclusivo na IA, em um vínculo que se intensificou sem barreiras claras impostas pela plataforma.

O processo também incluía o Google como réu. A família argumentou que a empresa deveria ser considerada “cocriadora” da Character.AI, por ter fornecido recursos financeiros, tecnologia, propriedade intelectual e pessoal técnico.

Leia mais:

  • IA 24h online: como instalar o OpenClaw de forma simples e barata
  • Avanço da IA pode criar risco de “PIB fantasma” e pressionar consumo, alertam analistas
  • Brasil e União Europeia reconhecem equivalência em proteção de dados
  • Governo eleva imposto de importação de mais de 1.200 produtos e mira indústria nacional
  • Câmara aprova incentivo a data centers e Brasil busca espaço na corrida da IA

O ponto ganhou peso porque a startup foi fundada por ex-funcionários do Google, que posteriormente retornaram à companhia.

Documentos judiciais indicam que ações semelhantes no Colorado, em Nova York e no Texas também foram abrangidas pelo acordo, sinalizando uma tentativa de encerrar uma frente jurídica que vinha se expandindo em diferentes estados norte-americanos.

Após o início dos processos, a Character.AI anunciou mudanças relevantes. Entre elas estão a separação de modelos de linguagem para usuários menores de idade, a criação de controles parentais e, mais recentemente, a proibição total de chats abertos para menores de 18 anos.

As alterações foram interpretadas como um reconhecimento de que o design anterior não oferecia salvaguardas suficientes.

Em paralelo, OpenAI e Microsoft passaram a responder a um processo relacionado a um caso ocorrido em 2023, no qual Stein-Erik Soelberg, de 56 anos, matou a mãe, Suzanne Eberson Adams, de 83, e em seguida tirou a própria vida. A ação é considerada a primeira nos EUA a vincular formalmente o ChatGPT a um episódio de homicídio seguido de suicídio.

Segundo a acusação, Soelberg manteve conversas prolongadas com o chatbot, a quem se referia como “Bobby”. Durante esse período, a IA teria validado teorias conspiratórias, reforçado percepções de perseguição e contribuído para o isolamento progressivo do usuário, sem apresentar contrapontos ou interromper a escalada de ideias delirantes.

Os advogados da família classificam o sistema como um “produto defeituoso”, alegando que o modelo manteve diálogos emocionalmente envolventes e deixou de acionar mecanismos de segurança diante de sinais claros de risco.

O processo também menciona o GPT-4o, acusando o modelo de ter sido lançado com pressa para competir com outras plataformas, sem testes de segurança proporcionais ao risco. A Microsoft é citada por integrar o comitê de revisão do modelo antes de sua liberação.

Em declarações anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”, característica que, segundo ele, poderia agravar quadros psiquiátricos frágeis.

A empresa afirma que vem ajustando o ChatGPT em parceria com profissionais de saúde mental para identificar sinais de sofrimento emocional e orientar usuários a buscar ajuda fora da plataforma.

Atualmente, ao menos outras cinco ações judiciais tramitam nos Estados Unidos atribuindo casos de suicídio a interações prolongadas com chatbots.

Em conjunto, elas ampliam a pressão regulatória e jurídica sobre o setor de inteligência artificial, levantando uma questão central para o futuro da tecnologia: quando sistemas conversacionais passam a exercer influência real sobre decisões humanas, quem deve responder pelas consequências?

Newsletter Corporis Brasil

Cadastre-se e receba direto no seu e-mail as principais notícias sobre tecnologia, inovação e tendências digitais que estão transformando negócios e carreiras. Saiba mais sobre soluções inteligentes, novas ferramentas e avanços que impactam o mercado.

Avatar photo

Victor Nabeiro

Foto:Nathana Rebouças/Unsplash

Post navigation

  • Previous Post Governo lança rede de hospitais inteligentes do SUS com IA, 5G e UTIs integradas
  • Next Post Sicredi arrecada mais de 500 kg de alimentos e destina doações a entidades de Guaxupé

Related Posts

IA 24h online: como instalar o OpenClaw de forma simples e barata

  • Victor Nabeiro
  • 26 de fevereiro de 2026

Você já teve uma ideia para criar um bot, uma automação ou um agente de IA, mas travou logo no início porque o setup técnico parecia complicado demais? O processo costuma ser conhecido: contratar um servidor e gastar horas, ou

Continue lendo
Robo deitado em um campo aberto com dinheiro ao redor

Avanço da IA pode criar risco de “PIB fantasma” e pressionar consumo, alertam analistas

  • Donizete Barroso
  • 26 de fevereiro de 2026

O debate sobre inteligência artificial já ultrapassa a discussão sobre bolha tecnológica. Um novo alerta vindo do mercado financeiro aponta para um possível efeito estrutural na economia: a criação de um chamado “PIB fantasma”. Nas economias modernas, o consumo das

Continue lendo

Categorias

  • Artigos
  • Cooperado
  • Cooperativa
  • Cooperativismo
  • Economia
  • News
  • RH
  • Sem categoria
  • Tecnologia

Pesquisar

Posts recentes

  • IA 24h online: como instalar o OpenClaw de forma simples e barata
  • Avanço da IA pode criar risco de “PIB fantasma” e pressionar consumo, alertam analistas
  • Brasil e União Europeia reconhecem equivalência em proteção de dados
Banner comercial, gastando muito contratando errado.

Endereço

Rua Dr. Guilherme Bannitz, 126 Cj. 81
Itaim Bibi, São Paulo - SP, 04532-060

Contato

(11) 3900-1256
contato@corporisbrasil.com.br

Links Importantes

  • Login e FAQ
  • Trabalhe conosco
  • Termos e Política de Privacidade

Nossas redes

Corporis Brasil © 2025