O governo dos Estados Unidos anunciou que vai recorrer da decisão de um tribunal da Califórnia que impediu punições contra a Anthropic, empresa de inteligência artificial responsável pelo assistente Claude, concorrente do ChatGPT.
A disputa gira em torno do uso da IA para fins militares. A Anthropic limita o uso de suas tecnologias em sistemas de vigilância em massa e armamentos autônomos, o que vai contra o interesse do Pentágono, que busca uso irrestrito dessas ferramentas.
Na semana passada, a Justiça proibiu o Departamento de Guerra de classificar a Anthropic como um risco à cadeia de suprimentos, uma etiqueta geralmente aplicada a empresas de países adversários. Além disso, derrubou a ordem do ex-presidente Donald Trump que proibia órgãos federais de usarem a IA da empresa.
Mesmo com essa restrição, o Claude foi usado em operações militares contra o Irã, auxiliando em análises de inteligência e simulações de combate, segundo o The Wall Street Journal.
A juíza Rita Lin considerou as medidas do governo arbitrárias e prejudiciais à Anthropic, afirmando que não há base legal para tratar a empresa como inimiga por discordar do governo. Ela também destacou que a decisão não força o uso do Claude nem impede a escolha de outros fornecedores de IA.
Autoridades do Pentágono criticaram a decisão, alegando que ela limita a capacidade de conduzir operações militares com parceiros escolhidos livremente. A Anthropic também está envolvida em outro processo em Washington, contestando outras ações do Pentágono. Grandes empresas e grupos diversos, como Microsoft e líderes militares aposentados, apoiam a empresa na Justiça.
