Tudo sobre Estados Unidos
Tudo sobre Inteligência Artificial
O governo dos Estados Unidos anunciou, nesta quinta-feira (2), sua intenção de recorrer contra uma decisão judicial que lhe impede de aplicar sanções à empresa de inteligência artificial (IA) Anthropic.
Continua após a publicidade
Essa disputa é parte de um embate maior sobre o uso da IA em fins militares, em que a Anthropic se opõe à integração de suas ferramentas em sistemas de vigilância em massa e armamentos autônomos.
Conflito entre EUA e Anthropic
- A administração estadunidense, por meio do Departamento de Justiça, revelou planos de contestar a decisão e, de acordo com o prazo estabelecido pelo tribunal, tem até 30 de abril para apresentar seus argumentos;
- Esse movimento surge após o Pentágono ser impedido pela Justiça de qualificar a Anthropic como uma ameaça ao fornecimento da cadeia de suprimentos dos EUA, uma classificação geralmente reservada a empresas de nações consideradas adversárias;
- Além disso, a decisão judicial revogou uma ordem dada previamente pelo presidente Donald Trump. Em 27 de fevereiro, Trump determinou que agências federais interrompessem o uso de soluções da Anthropic, alinhando-se à posição do Departamento de Guerra.
Declarações e impacto da decisão
A juíza Rita Lin proferiu uma sentença que bloqueou essas sanções, apontando que as medidas do governo poderiam “paralisar a Anthropic”.
Ela destacou que “nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser vista como adversária por simplesmente discordar do governo”, citando o autor de livros distópicos Geroge Orwell. Lin enfatizou que a decisão não força os EUA a utilizar os produtos da Anthropic nem impede a transição para outros fornecedores de IA.
A decisão judicial também gerou reações dentro do Pentágono. Um alto funcionário descreveu a decisão como uma “vergonha“, enquanto o subsecretário de Guerra, Emir Michael, alertou que isso “prejudicaria a plena capacidade” do secretário Pete Hegseth de operar militarmente com aliados escolhidos.
Diversas entidades se manifestaram em defesa da Anthropic mediante pareceres jurídicos. Entre os defensores, estão a Microsoft, associações comerciais, trabalhadores da área tecnológica, líderes militares aposentados e um grupo de teólogos católicos, todos apoiando a posição da empresa frente às restrições propostas pelo governo.

Leia mais:
Anthropic vs Pentágono: linha do tempo
11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.
14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.
Continua após a publicidade
Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.
24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.
27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.
Continua após a publicidade
28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.
24 de março de 2026: Anthropic e governo foram aos tribunais pela primeira vez. Houve uma audiência em um tribunal federal da Califórnia, que deliberou sobre a validade da medida tomada pelo Pentágono.
26 de março de 2026: a juíza distrital Rita Lin barrou a decisão do Pentágono, dizendo que “nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser vista como adversária por simplesmente discordar do governo” e que a medida poderia “paralisar a Anthropic”.
Rodrigo Mozelli
Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.











