A startup de inteligência artificial Anthropic protocolou uma ação judicial contra o governo dos Estados Unidos nesta segunda-feira (09/03). A medida ocorre após a Casa Branca designar a empresa como um “risco à cadeia de suprimentos”, uma sanção severa que costuma ser aplicada apenas a firmas estrangeiras consideradas adversárias. A disputa escalou quando a Anthropic se recusou a autorizar o uso de sua tecnologia para o desenvolvimento de armas autônomas e sistemas de vigilância doméstica, desencadeando uma crise institucional entre o Vale do Silício e o Pentágono.
📲Quer receber notícias direto no celular? Entre no nosso grupo no WhatsApp.
O impasse entre o Claude e o Departamento de Defesa
O centro do conflito reside no Claude, o modelo de linguagem da Anthropic que se tornou a principal ferramenta de inteligência artificial de ponta utilizada pelo Departamento de Defesa. Atualmente, o Claude é o único sistema dessa categoria autorizado a operar em infraestruturas que lidam com informações confidenciais do governo americano.
A sanção foi oficializada na última quinta-feira (05/03) pelo secretário de Defesa, Pete Hegseth. O governo alega que a postura da startup prejudica a prontidão militar, especialmente em um momento de tensões elevadas. Por outro lado, a Anthropic afirma em sua petição que a restrição imposta pela Casa Branca é ilegal, viola a liberdade de expressão e ignora direitos processuais básicos, podendo acarretar prejuízos bilionários e danos irreparáveis à reputação da companhia.
Segurança tecnológica e limites éticos na guerra
A tensão entre a startup e o governo intensificou-se semanas antes da ofensiva militar de Estados Unidos e Israel contra o Irã, iniciada em 28 de fevereiro. Relatos indicam que a tecnologia da Anthropic estaria sendo aplicada em operações de suporte no conflito, mas a empresa traçou uma linha vermelha em relação à autonomia letal.
Dario Amodei, CEO da Anthropic, defendeu publicamente que os sistemas atuais não possuem a confiabilidade necessária para operar armamentos de forma totalmente autônoma sem supervisão humana. Amodei reiterou que, embora a empresa colabore em missões de inteligência externa, o uso para vigilância em massa de cidadãos americanos é incompatível com os valores constitucionais e as liberdades fundamentais. Em resposta, o presidente Donald Trump criticou a startup em redes sociais, chamando a insistência nos termos de serviço da empresa de uma tentativa de intimidar o Departamento de Defesa.
Reação do setor e o futuro da soberania digital
O processo judicial é visto por especialistas como um divisor de águas para a indústria. É a primeira vez que uma empresa de IA dos EUA enfrenta o tipo de punição geralmente reservado a gigantes como a Huawei. A decisão final da Justiça determinará quem detém a palavra final sobre o emprego de algoritmos em cenários de guerra: o Estado ou os desenvolvedores da tecnologia.
O movimento da Anthropic recebeu apoio técnico de funcionários do Google e da OpenAI. Em carta aberta enviada à corte, o grupo argumentou que o uso de inteligência artificial para vigilância doméstica ou armas letais sem supervisão humana exige salvaguardas rigorosas. Eles alertam que uma vitória do governo neste caso poderia silenciar debates essenciais sobre os riscos existenciais e éticos das novas tecnologias.
Mudanças no mercado de defesa americano
Enquanto a Anthropic busca reverter a sanção judicialmente, o mercado de defesa já apresenta movimentações. Pouco após o anúncio das restrições contra a dona do Claude, a OpenAI firmou um novo acordo com o Departamento de Defesa. Sam Altman, CEO da OpenAI, afirmou que o Pentágono concordou com os princípios de supervisão humana e oposição à vigilância em massa, preenchendo o espaço deixado pela concorrente.
Apesar do litígio, a Anthropic mantém canais de negociação abertos com Washington. O desfecho desta batalha jurídica deve moldar os futuros contratos governamentais, que somaram cerca de 200 milhões de dólares para cada grande player de IA no último ano, definindo os limites da cooperação entre as Big Techs e o setor militar.
Leia mais:
Pentágono pressiona Anthropic para liberar IA para uso militar
Inteligência artificial redefine estratégias militares em novos conflitos no Oriente Médio
Siga nosso perfil no Instagram, Tiktok e curta nossa página no Facebook

