A startup de inteligência artificial Anthropic entrou com uma ação judicial nesta segunda-feira (9) para impedir que o Departamento de Defesa dos Estados Unidos a inclua em uma lista de restrição de segurança nacional.
A medida intensifica o confronto entre a empresa e o governo norte-americano sobre os limites do uso militar da inteligência artificial.
Na semana passada, o secretário de Defesa dos EUA, Pete Hegseth, classificou a Anthropic como um “risco à cadeia de suprimentos de segurança nacional”, decisão que restringe o uso da tecnologia da empresa por órgãos federais. Segundo uma fonte citada no processo, a ferramenta vinha sendo utilizada em operações militares no Irã.
A empresa argumenta que a inclusão na lista é ilegal e viola direitos constitucionais, como a liberdade de expressão e o devido processo legal.
Leia mais:
- Tecnologias para investir em 2026: guia estratégico para empresas que querem crescer com inteligência
- Cooperativa tem CNPJ? Entenda como funciona o registro e por que ele é obrigatório
- Como migrar do ChatGPT para o Claude e levar seus dados
- Anthropic aciona Justiça para barrar inclusão em lista de restrição do Pentágono
- Estudo aponta que liderança feminina pode elevar lucro das empresas em até 15%
A ação, apresentada em um tribunal federal da Califórnia, pede que a Justiça determine a retirada da Anthropic da lista e impeça que agências federais apliquem a restrição.
“Essas ações não têm precedentes e são ilegais. A Constituição não permite que o governo exerça poder para punir uma empresa por discurso protegido”, afirmou a Anthropic no processo.
A designação ocorreu após a startup se recusar a remover salvaguardas que impedem o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica.
Para o governo dos Estados Unidos, essas restrições poderiam limitar a capacidade das forças armadas de utilizar inteligência artificial em operações de defesa.
Autoridades do Pentágono argumentam que cabe à legislação norte-americana, e não a empresas privadas, definir como a tecnologia pode ser utilizada na proteção do país.
O Departamento de Defesa afirmou que precisa manter flexibilidade total para o uso da IA em qualquer aplicação considerada legal, e que as restrições impostas pela empresa poderiam colocar vidas norte-americanas em risco.
A Anthropic, por sua vez, sustenta que os atuais modelos de inteligência artificial ainda não são confiáveis o suficiente para operar armas totalmente autônomas e que esse tipo de aplicação representaria riscos significativos.
A empresa também afirmou que permitir vigilância doméstica por meio de IA seria uma violação de direitos fundamentais.
A inclusão na lista representa uma ameaça relevante para os negócios da Anthropic com o governo dos Estados Unidos. O presidente Donald Trump determinou que o governo federal interrompa gradualmente o uso das ferramentas da empresa ao longo de seis meses.
A Anthropic tem como investidores empresas como Google e Amazon, e vinha negociando com o Pentágono nos últimos meses para tentar chegar a um acordo sobre os limites do uso da tecnologia.
O desfecho da disputa pode influenciar a relação entre empresas de tecnologia e o setor militar nos Estados Unidos, especialmente na definição de regras para o uso de inteligência artificial em defesa.

No ano passado, o Departamento de Defesa assinou contratos de até US$ 200 milhões com alguns dos principais laboratórios de IA, incluindo Anthropic, OpenAI e Google.
Após a inclusão da Anthropic na lista de restrição, a OpenAI anunciou um acordo para utilizar sua tecnologia na rede do Departamento de Defesa.
O CEO da empresa, Sam Altman, afirmou que o Pentágono compartilha os princípios da companhia de manter supervisão humana em sistemas de armas e de evitar vigilância em massa dentro dos Estados Unidos.
Foto: Freepik

