Após confronto com governo Trump, Anthropic perde contrato e OpenAI avança

Disputa envolvendo vigilância doméstica e armas autônomas redefine contratos de inteligência artificial no governo dos Estados Unidos.

MERCADOINTELIGÊNCIA ARTIFICIAL

Por Redação InfoDot

3/5/20263 min read

Decisões tecnológicas raramente ficam restritas ao campo da inovação. Quando envolvem defesa nacional, elas passam a refletir disputas políticas, interpretações jurídicas e limites éticos. Foi nesse ambiente que a OpenAI, criadora do ChatGPT, consolidou um acordo com o Departamento de Defesa dos Estados Unidos após uma crise provocada pelo próprio Pentágono em suas negociações com a Anthropic.

O CEO da OpenAI, Sam Altman, anunciou ter fechado um novo contrato com o Pentágono para o uso de seus sistemas de inteligência artificial. A negociação ocorreu depois que o governo dos EUA classificou a Anthropic como risco à cadeia de suprimentos, decisão tomada após a empresa insistir na proibição de vigilância doméstica em massa e no veto a armas autônomas letais sem supervisão humana.

A recusa da Anthropic teve efeito imediato e profundo. A empresa caiu em desgraça no governo dos Estados Unidos, sendo posteriormente excluída de contratos federais após ser formalmente enquadrada como risco à cadeia de suprimentos. A OpenAI, por sua vez, optou por aceitar os termos estabelecidos pelo Departamento de Defesa.

Em publicação nas redes sociais, Altman afirmou apoiar proibições à vigilância doméstica em massa e ao uso de IA em sistemas de armas autônomas. A declaração, contudo, foi rapidamente contestada por especialistas e integrantes da indústria de IA, sobretudo porque a crise entre o Pentágono e a Anthropic surgiu justamente da recusa da empresa em flexibilizar esses mesmos pontos.

Na prática, o acordo permite que as Forças Armadas dos EUA utilizem a tecnologia da OpenAI sempre que determinada atividade for considerada tecnicamente legal. Desde os atentados terroristas de 11 de setembro, a definição do que é “legal” foi ampliada para sustentar programas abrangentes de vigilância.

Em relação às armas autônomas letais, o contrato estabelece que a tecnologia “não será usada para direcionar de forma independente armas autônomas em qualquer caso em que lei, regulamento ou política do Departamento exijam controle humano”. A redação está alinhada à diretriz do Departamento de Defesa de 2023, mas, segundo críticos, não cria novas restrições contratuais. A Anthropic defendia a proibição de armas letais totalmente autônomas sem supervisão adequada até que a tecnologia fosse considerada segura.

A Casa Branca reforçou que não aceitará interferência de empresas privadas na condução militar. O secretário de Defesa, Pete Hegseth, declarou nas redes sociais que “o comandante-em-chefe e o povo americano determinarão o destino das Forças Armadas, não executivos de tecnologia não eleitos”. Já o presidente dos Estados Unidos, Donald Trump, afirmou que combatentes americanos “jamais serão reféns dos caprichos ideológicos da Big Tech”.

Jeremy Lewin, subsecretário na administração Trump, afirmou que o entendimento firmado com a OpenAI, assim como outro acordo fechado com a xAI, representou um “compromisso que foi oferecido à Anthropic e rejeitado”, indicando que os termos não atendiam às exigências da concorrente.

Após o fracasso das negociações, o Pentágono formalizou a classificação da Anthropic como risco à cadeia de suprimentos, medida considerada rara para uma empresa americana. Em seguida, Trump determinou que agências federais deixassem de utilizar seus sistemas. A empresa informou que poderá contestar a decisão na Justiça.

A disputa evidencia como contratos de inteligência artificial passaram a ocupar posição estratégica na política de defesa dos Estados Unidos.

A relação entre limites éticos, poder estatal e inovação tecnológica tende a moldar decisões cada vez mais sensíveis no cenário global.

Leia mais...