A Anthropic iniciou a implementação de um sistema de verificação de identidade no chatbot Claude para determinados casos considerados sensíveis.
A empresa não detalhou todas as situações em que a medida será aplicada, mas informou que alguns usuários poderão ser solicitados a comprovar identidade ao acessar certas funcionalidades.
O processo inclui o envio de um documento oficial com foto e a captura de uma selfie, que será comparada ao registro apresentado.
Leia mais:
- Disney inicia corte de 1.000 funcionários em reestruturação interna
- Cooperativas propõem Plano Safra de R$ 674 bilhões para ampliar crédito ao agro
- Anthropic passa a exigir verificação de identidade em casos específicos no Claude
- Trabalho cooperativo: o que é, como funciona e quais são seus benefícios
- Claude apresenta instabilidade global e fica fora do ar por quase três horas
A iniciativa provocou reações negativas de parte da base de usuários, que questiona a necessidade da verificação para uso de um chatbot, especialmente entre assinantes pagos que já possuem dados cadastrados.
Também houve críticas à escolha da empresa Persona como parceira no processo. A companhia atua em soluções de verificação de identidade e idade para plataformas digitais e possui investidores ligados ao setor de tecnologia e análise de dados.

Em resposta às preocupações, a Anthropic afirmou que a Persona será responsável pelo processamento das informações, sem armazenar ou copiar os documentos e imagens. Segundo a empresa, os dados são criptografados durante o envio e armazenamento, e há restrições contratuais sobre o uso dessas informações.
A Anthropic também declarou que os dados coletados não serão utilizados para treinar modelos de inteligência artificial nem compartilhados com terceiros.
Em atualização divulgada em 16 de abril de 2026, a empresa informou que a verificação será aplicada a um número restrito de situações, relacionadas a possíveis atividades fraudulentas ou abusivas que violem as políticas da plataforma.
A medida faz parte de um conjunto de ações voltadas ao reforço da segurança e ao controle de uso dos sistemas de inteligência artificial.
Foto: Freepik

