Anthropic volta a conversar com Pentágono sobre uso de IA na guerra

Publicidade

O CEO da Anthropic, Dario Amodei, negocia com Emil Michael, responsável por pesquisas e engenharia no Pentágono, segundo o Financial Times

amodei
Imagem: Ahyan Stock Studios/Shutterstock

Compartilhe esta matéria

Siga o Olhar Digital no Google Discover

A Anthropic e o Departamento de Defesa dos Estados Unidos retomaram as negociações nesta quinta-feira (05) para definir o uso de inteligência artificial (IA) em sistemas militares, revelou o Financial Times nesta quinta-feira (05). O diálogo ocorre após o colapso das conversas na semana passada, quando o governo americano ameaçou designar a startup como um “risco à cadeia de suprimentos”, medida que proibiria agências federais de utilizarem suas ferramentas.

A divergência central envolve as salvaguardas de segurança da empresa, que resiste ao uso de sua tecnologia para vigilância em massa ou operação de armas autônomas. Enquanto a concorrente OpenAI já firmou acordos para o uso de modelos em redes confidenciais (sistemas protegidos por sigilo de segurança nacional), a Anthropic busca garantias contratuais de que sua tecnologia não executará análises indiscriminadas de grandes volumes de dados.

Pressão de investidores e risco de exclusão aceleram retomada de diálogo entre Anthropic e Pentágono

O retorno às negociações foi motivado por uma pressão de grandes investidores, como Amazon e Nvidia. Por meio de um conselho de tecnologia, essas empresas enviaram uma carta ao governo na qual manifestaram preocupação com a possível punição à Anthropic, o que poderia prejudicar todo o mercado de tecnologia dos Estados Unidos.

Agora, o CEO da Anthropic, Dario Amodei, conversa diretamente com Emil Michael, um alto funcionário do Pentágono responsável por pesquisas e engenharia. O objetivo é criar um contrato que permita aos militares usar a tecnologia, mas garanta que os limites éticos da startup não sejam desrespeitados.

OpenAI e Anthropic
Enquanto a OpenAI opera em redes secretas, a Anthropic exige garantias contra o uso de sua IA na análise indiscriminada de dados em massa (Imagem: Ascannio/Shutterstock)

A Anthropic está numa fase de crescimento e espera faturar US$ 20 bilhões (R$ 105 bilhões) por ano, o que torna o governo um cliente estratégico. Se fosse expulsa desse mercado, a empresa perderia espaço para concorrentes que possuem menos travas de segurança em seus sistemas de IA.

O impasse ocorreu porque o governo americano queria retirar uma cláusula que impedia a IA de analisar grandes volumes de dados coletados de forma massiva. Oficiais do Pentágono criticam a startup há meses, afirmando que a preocupação exagerada com a segurança da IA atrapalha o desenvolvimento de ferramentas de defesa do país.

O desfecho dessa negociação vai definir como as empresas do Vale do Silício e os militares trabalharão juntos no futuro. Um novo acordo permitiria que o exército voltasse a usar o sistema Claude (a IA da Anthropic) e mostraria se o governo aceita as regras de controle ético propostas pelos desenvolvedores.

(Essa matéria também usou informações de Reuters.)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.

Olhar Digital

Compartilhe essa Notícia:

publicidade

publicidade