Tribunal da Califórnia bloqueou penalidades depois que a empresa limitou o uso de suas ferramentas em vigilância em massa e em armamentos autônomos, gerando recurso
Anthropic está no centro de um conflito entre governo e setor de tecnologia sobre até onde pode ir o uso de inteligência artificial em operações militares.
O Departamento de Justiça dos EUA informou que pretende recorrer da decisão que impediu punições federais contra a empresa, dona do assistente Claude, e terá até 30 de abril para apresentar argumentos.
O caso envolve questões de segurança, liberdade de expressão empresarial e precedentes para a política de compras do governo, conforme informação divulgada pelo g1.
Motivos da disputa
A disputa começou quando a Anthropic anunciou limites ao uso de suas ferramentas em aplicações militares, por exemplo em vigilância em massa de cidadãos e em armamento autônomo, posição que conflitou com a demanda do governo por acesso mais amplo.
Segundo relatos, o assistente Claude já foi usado em operações militares, e o jornal The Wall Street Journal informou que o sistema foi empregado pelo Exército americano em uma ofensiva contra o Irã, ajudando em avaliações de inteligência, identificação de alvos e simulações de cenários de batalha.
Decisões judiciais recentes
Uma juíza da Califórnia suspendeu temporariamente duas ações do governo contra a Anthropic. Em sua decisão, a magistrada considerou que as medidas pareciam arbitrárias e poderiam, citando o texto da decisão, “paralisar a Anthropic” ao aplicar “amplas medidas punitivas”.
A juíza também afirmou, na mesma decisão, “Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como uma potencial adversária e sabotadora dos EUA por expressar discordância com o governo”.
Na prática, o tribunal impediu que o Pentágono classificasse a empresa como um risco à cadeia de fornecimento, designação normalmente reservada a fornecedores de países adversários, e derrubou a ordem do presidente Donald Trump que proibia órgãos federais de usar a tecnologia da Anthropic.
Reação do governo e prazo do recurso
Advogados do Departamento de Justiça manifestaram a intenção de recorrer, e o tribunal estabeleceu o prazo até 30 de abril para que apresentem seus argumentos formais.
Um alto funcionário do Pentágono descreveu a decisão como uma “vergonha”, e o subsecretário de Guerra dos EUA, Emir Michael, afirmou que a medida “prejudicaria a plena capacidade” do secretário de conduzir operações militares com os parceiros que escolher.
A disputa legal inclui ainda um processo separado da Anthropic em um tribunal federal de apelações em Washington, D.C., que questiona outros pontos das ações do Pentágono contra a empresa.
Impactos para indústria e defesa
Diversas entidades apresentaram pareceres favoráveis à Anthropic, entre elas a Microsoft, associações comerciais, trabalhadores do setor de tecnologia, líderes militares aposentados e até um grupo de teólogos católicos.
Especialistas alertam que a decisão e o recurso terão efeitos sobre contratos de defesa, regras de aquisição do governo e o desenvolvimento de políticas sobre o uso ético de IA em cenários de conflito.
Enquanto o processo segue, a disputa entre o governo e empresas como a Anthropic mostra o choque entre necessidades de segurança nacional e preocupações éticas e comerciais sobre a adoção de inteligência artificial em operações militares.
