A Anthropic voltou a negociar com o Departamento de Defesa dos Estados Unidos sobre o possível uso de sua inteligência artificial em sistemas militares.
As conversas foram retomadas nesta quinta-feira (05), segundo informações do Financial Times, após um impasse ocorrido na semana anterior.
Leia mais:
- Tecnologia e comportamento humano redefinem a gestão de pessoas nas empresas
- Google alerta para ataque hacker que explora iPhones desatualizados e rouba dados financeiros
- Anthropic retoma negociações com Pentágono sobre uso do Claude em aplicações militares
- IA pode estar criando empregos no curto prazo, aponta estudo ligado ao BCE
- 16º Concred coloca o futuro do cooperativismo financeiro no centro dos debates
O diálogo havia sido interrompido quando o governo norte-americano ameaçou classificar a empresa como um “risco à cadeia de suprimentos”. Caso a designação fosse formalizada, agências federais ficariam proibidas de utilizar as ferramentas da startup.
No centro da divergência estão as salvaguardas de segurança impostas pela Anthropic. A empresa resiste à utilização de sua tecnologia em atividades como vigilância em massa ou operação de armas autônomas.
Enquanto isso, concorrentes como a OpenAI já firmaram acordos para o uso de seus modelos em redes confidenciais do governo, voltadas a aplicações de segurança nacional.
A retomada das negociações foi influenciada por investidores da empresa, entre eles Amazon e Nvidia. Por meio de um conselho de tecnologia, representantes dessas companhias enviaram uma carta ao governo americano alertando que a possível punição à Anthropic poderia gerar impactos negativos para o setor tecnológico do país.
As conversas agora ocorrem diretamente entre o CEO da Anthropic, Dario Amodei, e Emil Michael, autoridade do Pentágono responsável por pesquisas e engenharia.
O objetivo é estabelecer um contrato que permita o uso da tecnologia pelas forças armadas, mas preserve as restrições éticas definidas pela empresa.
A Anthropic está em fase de expansão e projeta alcançar receita anual de cerca de US$ 20 bilhões (aproximadamente R$ 105 bilhões).
Nesse contexto, o governo norte-americano é visto como um cliente estratégico. Uma eventual exclusão desse mercado poderia abrir espaço para concorrentes com menos restrições em suas políticas de segurança.
O conflito surgiu após autoridades do Pentágono sugerirem a retirada de uma cláusula que impede a inteligência artificial da empresa de analisar grandes volumes de dados coletados de forma massiva.
Oficiais do Departamento de Defesa vêm criticando a Anthropic há meses, argumentando que as preocupações com segurança e ética podem limitar o desenvolvimento de tecnologias consideradas essenciais para a defesa nacional.
O resultado das negociações pode influenciar a forma como empresas do Vale do Silício e o setor militar irão colaborar no futuro.
Um eventual acordo permitiria que o sistema Claude voltasse a ser utilizado pelo governo e indicaria até que ponto as autoridades americanas aceitarão os limites éticos propostos pelos desenvolvedores de inteligência artificial.
Foto: Freepik

