A Califórnia se tornou o primeiro estado dos Estados Unidos a regulamentar o uso de chatbots de inteligência artificial voltados à interação pessoal.
O governador Gavin Newsom sancionou, nesta segunda-feira (13), o projeto de lei SB 243, que exige que empresas responsáveis por assistentes virtuais “companheiros” adotem medidas específicas de segurança para proteger crianças e usuários vulneráveis.
A norma, que entra em vigor em 1º de janeiro de 2026, responsabiliza companhias como OpenAI, Meta, Replika e Character AI caso suas plataformas não cumpram os novos padrões exigidos.
O texto estabelece a verificação de idade obrigatória, a exibição de alertas sobre riscos de uso e a proibição de acesso de menores a conteúdo sexualizado.
As plataformas também deverão incluir lembretes de pausa e deixar claro que as interações são geradas por IA, impedindo que bots se apresentem como profissionais de saúde.
Além disso, as empresas terão que implementar protocolos de resposta para casos de automutilação ou risco de suicídio, cujas notificações deverão ser comunicadas ao Departamento de Saúde Pública da Califórnia. A lei ainda prevê multas de até US$ 250 mil para companhias que lucrem com deepfakes ilegais.
O projeto foi apresentado pelos senadores Steve Padilla e Josh Becker após uma série de incidentes envolvendo adolescentes e chatbots. Entre eles, o suicídio de um jovem de 19 anos após interações com o ChatGPT e o caso de uma menina de 13 anos no Colorado, que levou à abertura de processo contra a Character AI.
Vazamentos também mostraram que chatbots da Meta mantinham diálogos de teor “romântico” com menores de idade.
“Tecnologias emergentes como chatbots e redes sociais podem inspirar, educar e conectar, mas sem limites reais podem explorar e colocar nossas crianças em perigo”, afirmou o governador Gavin Newsom.
Em resposta ao avanço das regulamentações, empresas de IA começaram a adotar recursos de segurança infantil. A OpenAI, por exemplo, lançou controles parentais no ChatGPT, permitindo que pais vinculem suas contas às dos filhos, bloqueiem funções de memória e limitem o tempo de uso.
A Character AI também introduziu alertas de tempo de sessão, mensagens de aviso sobre o caráter fictício dos personagens e bloqueios automáticos de perfis com nomes como “psicólogo” ou “terapeuta”, que agora trazem avisos adicionais de isenção de responsabilidade.
Para o senador Steve Padilla, o SB 243 é “um passo na direção certa” e deve inspirar outras jurisdições a agir. “Esse debate está acontecendo em todo o país, e o governo federal ainda não o fez. Temos a obrigação de proteger as pessoas mais vulneráveis entre nós”, afirmou ao TechCrunch.
A lei complementa outra medida recente da Califórnia, o SB 53, que exige transparência das grandes desenvolvedoras de IA quanto a seus protocolos de segurança.
Outros estados, como Illinois, Nevada e Utah, também já adotaram normas que restringem o uso de chatbots como substitutos de profissionais de saúde mental, reforçando a tendência de maior supervisão sobre a inteligência artificial nos Estados Unidos.

