Os Estados Unidos anunciaram que vão recorrer da decisão de um tribunal da Califórnia que proibiu o governo de aplicar sanções contra a Anthropic, empresa responsável pelo assistente de IA Claude, concorrente do ChatGPT.
A disputa envolve o uso da inteligência artificial em operações militares. A Anthropic se opõe ao uso de suas tecnologias em sistemas de vigilância em massa e armamentos autônomos, o que gerou atrito com o governo americano, que quer uso irrestrito da IA.
Na semana passada, a Justiça impediu o Pentágono de classificar a Anthropic como risco à cadeia de fornecimento, status geralmente reservado a empresas de países inimigos. Também foi derrubada a ordem do ex-presidente Donald Trump que proibia órgãos federais de utilizarem a IA da Anthropic.
Mesmo com a proibição, o Claude foi usado pelo Exército dos EUA em operações contra o Irã, ajudando a analisar inteligência, identificar alvos e simular cenários de guerra, segundo reportagem do The Wall Street Journal.
A juíza Rita Lin considerou as punições do governo arbitrárias e capazes de paralisar a Anthropic. Ela destacou que a legislação atual não permite tratar uma empresa americana como adversária por discordar do governo.
O Pentágono criticou a decisão, chamando-a de “vergonha” e afirmando que prejudica a capacidade de conduzir operações militares com parceiros escolhidos. A Anthropic também recorreu em tribunal federal em Washington contra outras medidas do governo.
Empresas como Microsoft, associações do setor de tecnologia, militares aposentados e grupos religiosos manifestaram apoio à Anthropic nas ações judiciais.
