Governo dos EUA recorre contra decisão que protege Anthropic de sanções por uso militar de IA
O governo dos Estados Unidos anunciou nesta quinta-feira (2) que irá recorrer de uma decisão judicial que impediu a aplicação de punições contra a Anthropic, empresa de inteligência artificial criadora do assistente Claude, rival do ChatGPT. A disputa gira em torno do uso irrestrito de ferramentas de IA para fins militares pelo governo americano, algo que a Anthropic busca limitar por questões éticas.
A companhia se opõe à adoção de suas tecnologias em sistemas de vigilância em massa e no desenvolvimento de armamento autônomo. A decisão da Justiça americana, que bloqueou sanções contra a empresa, é vista pelo Pentágono como um entrave para suas operações militares.
A controvérsia ganhou destaque após o Departamento de Guerra dos EUA ser impedido de classificar a Anthropic como um risco à cadeia de suprimentos, uma designação usualmente reservada a empresas de países adversários. A Justiça também derrubou uma ordem do ex-presidente Donald Trump que proibia órgãos federais de utilizarem a IA da Anthropic. Conforme informações divulgadas, os EUA já teriam utilizado o Claude em operações militares contra o Irã, auxiliando em avaliações de inteligência, identificação de alvos e simulações de cenários de batalha.
Juíza critica “amplas medidas punitivas” e “noção orwelliana”
A juíza Rita Lin, responsável por impedir as punições contra a Anthropic por uma semana, considerou as “amplas medidas punitivas” do governo americano como arbitrárias e capazes de “paralisar a Anthropic”. A magistrada ressaltou que a legislação vigente não apoia a ideia de que uma empresa americana possa ser rotulada como adversária ou sabotadora por discordar das diretrizes governamentais, fazendo uma alusão à obra de George Orwell.
Lin esclareceu que sua decisão não obriga os Estados Unidos a continuarem utilizando os produtos da Anthropic, nem os impede de buscar outros fornecedores de IA. A decisão, no entanto, foi recebida com críticas por altos funcionários do Pentágono, que a classificaram como uma “vergonha” e um prejuízo à capacidade de conduzir operações militares.
Anthropic busca proteção judicial em múltiplas frentes
Além da ação na Califórnia, a Anthropic moveu um processo em um tribunal federal de apelações em Washington, D.C., contestando diferentes aspectos das ações do Pentágono. Diversas entidades, incluindo a Microsoft, associações comerciais, trabalhadores do setor de tecnologia, militares aposentados e um grupo de teólogos católicos, apresentaram pareceres jurídicos em apoio à Anthropic.
Prazo para recurso e o futuro do uso de IA em conflitos
Os advogados do Departamento de Justiça dos EUA têm até 30 de abril para apresentar seus argumentos no recurso contra a decisão. O caso levanta questões cruciais sobre os limites éticos no uso de inteligência artificial em contextos militares e a autonomia das empresas de tecnologia em definir as aplicações de suas ferramentas. A decisão final poderá moldar o futuro da relação entre o setor de IA e as forças armadas dos Estados Unidos.
Fonte consultada: https://g1.globo.com/tecnologia/noticia/2026/04/02/eua-contestam-decisao-em-favor-da-anthropic-em-meio-a-disputa-por-uso-de-ia-em-guerras.ghtml.