Siga o Olhar Digital no Google Discover
A empresa de inteligência artificial Anthropic negocia com o Pentágono a continuidade de sua atuação junto ao Departamento de Defesa dos Estados Unidos após divergências surgidas na esteira da operação que resultou na captura do líder venezuelano Nicolás Maduro, em 3 de janeiro. O impasse coloca em risco um contrato de US$ 200 milhões firmado com a companhia.
Segundo pessoas familiarizadas com as discussões ouvidas pelo Washington Post, autoridades do governo passaram a questionar a confiabilidade da empresa depois que executivos demonstraram preocupação com o uso da tecnologia no episódio. O modelo Claude, desenvolvido pela Anthropic, é um dos sistemas de IA empregados pelo Pentágono para ampliar capacidades em cibersegurança, otimizar armas autônomas e tornar processos internos mais eficientes.

Uso militar de IA gera atrito
Integrantes da equipe do secretário de Defesa, Pete Hegseth, têm defendido que as Forças Armadas tenham liberdade para utilizar ferramentas de IA “para todos os propósitos legais” em redes não classificadas. De acordo com um funcionário da Defesa, empresas como OpenAI, Google e a xAI, de Elon Musk, concordaram com essa condição e negociam acordos semelhantes para ambientes classificados.
A Anthropic, por sua vez, afirma estar comprometida com o apoio à segurança nacional dos Estados Unidos, mas ressalta que o uso de suas tecnologias deve seguir sua política de uso. Em nota, a empresa declarou que mantém “conversas produtivas, de boa-fé” com o Departamento de Defesa para tratar das questões envolvidas.
A tensão ganhou força após a revelação de que tecnologias da Palantir e o modelo Claude foram usadas na preparação da operação contra Maduro. Durante a ação, dezenas de integrantes da segurança venezuelana e militares do país morreram. Após o episódio, um executivo da Anthropic teria questionado a Palantir sobre o emprego da ferramenta, o que foi interpretado por autoridades como possível desaprovação.

A empresa nega ter discutido operações específicas com o Departamento de Defesa ou manifestado preocupação a parceiros do setor fora de conversas técnicas rotineiras.
Leia mais:
Risco contratual e debate sobre limites
O Pentágono indicou que pode classificar a Anthropic como “risco à cadeia de suprimentos”, designação que tradicionalmente atinge empresas chinesas e russas. Caso isso ocorra, fornecedores poderiam ser obrigados a certificar que não utilizam modelos da companhia.
O debate ocorre em meio a uma aceleração no uso de IA pelo setor militar. Em diretriz publicada em janeiro de 2026, Hegseth afirmou que “a velocidade vence” em um cenário impulsionado por inteligência artificial e orientou a liberação de dados para treinamento de sistemas.
Pouco depois, Dario Amodei, cofundador e CEO da Anthropic, publicou um ensaio alertando para riscos de armas autônomas e vigilância em massa baseadas em IA. Ele destacou a possibilidade de governos democráticos utilizarem tecnologias poderosas com pouca prestação de contas.

O uso militar de IA já vinha sendo expandido nos últimos anos. Em 2024, na Edwards Air Force Base, a Força Aérea testou um caça F-16 equipado com IA em combates simulados, mantendo um piloto humano capaz de desativar o sistema. Desde 2023, uma política do governo exige revisões e salvaguardas para garantir que decisões sobre uso de força permaneçam sob controle humano.










