OpenAI fecha acordo histórico com Pentágono para IA em rede classificada

A OpenAI alcançou um acordo com o Departamento de Guerra dos EUA para deployar seus modelos de IA em redes classificadas, substituindo a Anthropic após conflito sobre guardrails éticos.


O acordo

Em anúncio feito na sexta-feira (28/02), o CEO da OpenAI, Sam Altman, confirmou que a empresa fechou um acordo com o Pentágono (chamado de Departamento de Guerra sob a administração Trump) para permitir o uso de seus modelos de IA em redes classificadas do Departamento de Defesa.

O acordo ocorre logo após o fracasso das negociações entre o Pentágono e a Anthropic, que se recusou a remover salvaguardas éticas sobre uso de suas tecnologias.

Salvaguardas técnicas

Surpreendentemente, Altman afirmou que o contrato da OpenAI inclui proteções que abordam as mesmas questões que levaram ao conflito com a Anthropic:

  • Proibição de vigilância em massa doméstica: Os modelos não podem ser usados para vigilância em massa de cidadãos americanos
  • Responsabilidade humana no uso da força: Mantém a necessidade de responsabilidade humana, incluindo sistemas de armas autônomas

“O DoW concorda com esses princípios, reflete-os na lei e política, e os incluímos em nosso acordo”, escreveu Altman.

A OpenAI construirá “salvaguardas técnicas” para garantir que seus modelos se comportem conforme deveriam, e implantará engenheiros com o Pentágono para ajudar com os modelos e garantir sua segurança.

O conflito com Anthropic

A disputa entre o Pentágono e a Anthropic girou em torno de dois pontos:

  1. Vigilância em massa doméstica: A Anthropic se opôs ao uso de seus modelos para vigilância em massa de americanos, argumentando que isso é “incompatível com valores democráticos”
  2. Armas totalmente autônomas: A empresa se recusou a fornecer tecnologia para armas totalmente autônomas, argumentando que os atuais sistemas de IA não são confiáveis o suficiente

O Pentágono exigia a capacidade de usar Claude para “todos os propósitos legais”, enquanto a Anthropic pedia guardrails específicos.

Retaliação do governo

Após o fracasso das negociações, o presidente Trump ordenou que todas as agências federais parassem imediatamente de usar a Anthropic, exceto o Pentágono, que tem até 6 meses para transição.

O secretário de Defesa, Pete Hegseth, declarou Anthropic um “risco à cadeia de suprimentos” e proibiu contratistas militares de fazer negócios com a empresa.

“America’s warfighters will never be held hostage by the ideological whims of Big Tech. This decision is final”, escreveu Hegseth.

Apoio dos funcionários

Mais de 60 funcionários da OpenAI e 300 funcionários da Google assinaram uma carta aberta pedindo que suas empresas apoiassem a posição da Anthropic na disputa com o Pentágono.

Resposta da OpenAI

Em um gesto diplomático, Altman pediu que o Departamento de Guerra “ofereça esses mesmos termos a todas as empresas de IA, que na nossa opinião achamos que todos deveriam estar dispostos a aceitar”.

“Temos expressado nosso forte desejo de ver as coisas se desescalarem, saindo de ações legais e governamentais indo rumo a acordos razoáveis”, completou.

O que significa?

Este acordo representa:

  • Mudança na dinâmica: A OpenAI mostrou disposição para trabalhar com o governo mantendo algumas salvaguardas
  • Pressão sobre outras empresas: O pedido da OpenAI para que o Pentágono ofereça os mesmos termos a todos pode padronizar as relações
  • Questões de segurança nacional: O uso de IA militar se torna cada vez mais central na defesa dos EUA
  • Debate ético contínuo: As questões sobre uso ético de IA militar permanecem abertas

A Anthropic prometeu desafiar a designação de “risco à cadeia de suprimentos” no tribunal, argumentando que é “legalmente insustentável” e estabelece um “precedente perigoso”.


Fontes


Nota do editor: Este post foi escrito por IA para o TokenTimes.net. Fontes e referências estão listadas acima.


Este post foi gerado por IA usando GLM-4.7