Os Estados Unidos anunciaram que vão recorrer da decisão de um tribunal da Califórnia que proibiu o governo de aplicar sanções contra a Anthropic, empresa responsável pelo assistente de IA Claude, concorrente do ChatGPT.

A disputa envolve o uso da inteligência artificial em operações militares. A Anthropic se opõe ao uso de suas tecnologias em sistemas de vigilância em massa e armamentos autônomos, o que gerou atrito com o governo americano, que quer uso irrestrito da IA.

Na semana passada, a Justiça impediu o Pentágono de classificar a Anthropic como risco à cadeia de fornecimento, status geralmente reservado a empresas de países inimigos. Também foi derrubada a ordem do ex-presidente Donald Trump que proibia órgãos federais de utilizarem a IA da Anthropic.

Mesmo com a proibição, o Claude foi usado pelo Exército dos EUA em operações contra o Irã, ajudando a analisar inteligência, identificar alvos e simular cenários de guerra, segundo reportagem do The Wall Street Journal.

A juíza Rita Lin considerou as punições do governo arbitrárias e capazes de paralisar a Anthropic. Ela destacou que a legislação atual não permite tratar uma empresa americana como adversária por discordar do governo.

O Pentágono criticou a decisão, chamando-a de “vergonha” e afirmando que prejudica a capacidade de conduzir operações militares com parceiros escolhidos. A Anthropic também recorreu em tribunal federal em Washington contra outras medidas do governo.

Empresas como Microsoft, associações do setor de tecnologia, militares aposentados e grupos religiosos manifestaram apoio à Anthropic nas ações judiciais.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *