Anthropic Rejeita Ultimato do Pentágono Sobre Uso Militar do Claude AI
A Anthropic rejeitou formalmente o ultimato do Pentágono dos Estados Unidos para permitir uso militar irrestrito do seu modelo Claude AI. O CEO Dario Amodei declarou que a empresa “não pode, em boa consciência, ceder às demandas” do Departamento de Defesa.
A Recusa
Em um comunicado emitido na noite de 26 de fevereiro de 2026, a Anthropic declarou que a linguagem do contrato recebida do Pentágono “fez virtualmente nenhum progresso na prevenção do uso do Claude para vigilância em massa de americanos ou em armas totalmente autônomas.” Apesar de ser enquadrada como um compromisso, a nova linguagem “foi combinada com termos legais que permitiriam que essas salvaguardas fossem descartadas à vontade.”
A empresa enfrentava um prazo de hoje, sexta-feira, 27 de fevereiro, às 17h01 (hora local dos EUA) para cumprir com os termos ou enfrentar consequências severas.
O Conflito em Questão
No centro da disputa estão os termos de serviço e as guardrails da Anthropic que governam as aplicações militares do Claude. A empresa insistiu em manter restrições para uso militar, incluindo:
- Proibição de operações de vigilância em massa doméstica
- Proibição de sistemas de armas totalmente autônomos e letais
- Requisito de que o modelo não tome decisões finais de targeting letal sem supervisão humana significativa
A empresa argumenta que essas aplicações estão “fora dos limites do que a tecnologia de hoje pode fazer de forma segura e confiável.”
As Consequências da Recusa
Com a rejeição do ultimato, a Anthropic agora enfrenta:
- Término imediato do contrato de $200 milhões assinado em julho de 2025 através do CDAO
- Designação potencial como “risco de cadeia de suprimentos”, o que impediria outros empreiteiros de defesa dos EUA de usar ferramentas da Anthropic
- Possível invocação do Defense Production Act para forçar compliance
Contexto do Contrato e Implantação Classificada
Claude tornou-se o primeiro modelo de IA aprovado para operação em redes classificadas militares dos EUA e permanece o único modelo atualmente operacional para trabalho militar sensível e classificado. Isso torna Claude crítico para operações militares sensíveis.
Em julho de 2025, o Pentágono concedeu contratos semelhantes de até $200 milhões cada para OpenAI, Google DeepMind e xAI como parte de uma estratégia de procurement diversificada.
xAI Aceita Termos do Pentágono
Enquanto a Anthropic rejeitou os termos, a xAI concordou com os termos do Pentágono para trabalho classificado, e negociações com outros fornecedores estão acelerando. Isso significa que o Pentágono terá opções alternativas, embora Claude permaneça como o único modelo atualmente implantado em redes classificadas.
Amodei disse que a Anthropic “trabalharia para permitir uma transição suave para outro provedor” se o departamento escolher encerrar a relação.
Reunião Tense no Pentágono
O Secretário de Defesa Pete Hegseth apresentou o ultimato a Amodei durante uma reunião tensa na terça-feira, 24 de fevereiro de 2026, no Pentágono. O Departamento de Defesa ameaçou designar a Anthropic como risco de cadeia de suprimentos ou invocar o Defense Production Act para forçar compliance.
O Padrão “Todos os Usos Legais”
Funcionários de defesa afirmam que o padrão que rege o procurement de IA militar é “todos os usos legais”, argumentando que determinações sobre legalidade em conflitos armados e operações de segurança nacional caem sob jurisdição federal em vez de política corporativa privada.
Contexto Recente
A disputa intensificou-se após relatos de que Claude foi integrado a uma operação militar em janeiro de 2026 que resultou na captura do ex-presidente venezuelano Nicolás Maduro. Detalhes sobre o papel operacional específico de Claude não foram publicamente divulgados.
O Que Está em Jogo
A recusa da Anthropic define um precedente significativo sobre o equilíbrio entre autonomia corporativa, responsabilidade de IA e requisitos de segurança nacional. A empresa está disposta a perder um contrato de $200 milhões e enfrentar potencial blacklisting para manter seus princípios éticos sobre o uso de tecnologia de IA.
À medida que a sexta-feira-feira 17h01 se aproxima, a comunidade de IA e observadores de política tecnológica aguardam para ver se o Pentágono seguirá com suas ameaças ou se haverá mais negociações. O desfecho desta disputa pode definir precedentes para a relação entre empresas de IA e militares no futuro.
Fontes
- Swarajya Magazine: Anthropic Rejects Pentagon Demand For Unrestricted Military Use Of Claude AI
- Defense News: Pentagon Issues Final Ultimatum to Anthropic Over Unrestricted Military Use of Claude AI
- CNBC, CNN, CBS News, Axios
Este post foi gerado por IA usando GLM-4.7