O Departamento de Defesa dos Estados Unidos intensificou a pressão sobre a startup Anthropic para que a empresa disponibilize sua tecnologia de IA para uso militar de forma irrestrita. O secretário de Defesa, Pete Hegseth, estabeleceu um prazo que se encerra nesta sexta-feira, 27 de fevereiro, para que a organização libere o modelo Claude para operações de defesa. A exigência ocorre sob a ameaça de rescisão de contratos governamentais e a possível invocação de leis de emergência da época da Guerra Fria.
📲Quer receber notícias direto no celular? Entre no nosso grupo no WhatsApp.
Este embate representa um marco na relação entre o setor de tecnologia e o Estado, evidenciando como o controle sobre sistemas de inteligência artificial se tornou um ativo estratégico de segurança nacional. A Anthropic, que fundamentou sua marca na segurança e ética, resiste em fornecer acesso total para finalidades que envolvam vigilância em massa ou missões letais sem supervisão humana direta.
O uso da Lei de Produção de Defesa contra a Anthropic
Durante uma reunião em Washington com o CEO da Anthropic, Dario Amodei, o secretário Hegseth apresentou ultimatos claros. Fontes ligadas ao Pentágono indicam que o governo considera aplicar a Lei de Produção de Defesa. Esse dispositivo legal concede ao presidente dos EUA o poder de intervir na indústria nacional e assumir o controle de recursos considerados essenciais para a proteção do país.
Caso a empresa não ceda voluntariamente, a aplicação dessa lei obrigaria a startup a integrar o Claude aos sistemas do Pentágono, independentemente das políticas internas de segurança da companhia. Atualmente, a Anthropic já possui um contrato de 200 milhões de dólares com o Departamento de Defesa, firmado em julho de 2025, destinado ao desenvolvimento de capacidades avançadas de inteligência artificial. Contudo, a flexibilidade exigida agora por Washington ultrapassa os limites éticos estabelecidos pelos fundadores da startup.
Riscos para a inovação e o futuro da IA para uso militar
Especialistas do setor demonstram preocupação com as consequências de uma intervenção governamental tão agressiva. Geoffrey Gertz, integrante do think tank Center for a New American Security, aponta que forçar uma empresa de tecnologia a ignorar suas salvaguardas pode ser contraproducente.
“A Anthropic vê essas coisas como não sendo do interesse de longo prazo da humanidade, pelo menos com o nível atual de tecnologia e salvaguardas existentes, enquanto o Pentágono está pressionando para ter qualquer uso legal que desejar”, avalia o especialista Geoffrey Gertz, do think tank Center for a New American Security.
Ele ressalta que restringir o mercado de uma empresa que lidera a frente de inteligência artificial responsável pode prejudicar a própria competitividade tecnológica dos Estados Unidos.
Mudanças nas políticas de segurança e competitividade
Embora resista às exigências militares mais extremas, a Anthropic anunciou recentemente uma flexibilização em suas políticas centrais de segurança. A justificativa da empresa é a necessidade de se manter competitiva perante rivais como OpenAI e Google, em um cenário onde a regulamentação federal ainda é incipiente. A startup nega que essa mudança esteja diretamente relacionada às negociações com o Pentágono, mas o movimento ocorre em um momento de transição política e econômica sob a gestão Trump.
O governo atual tem demonstrado uma postura intervencionista em setores críticos. Além da inteligência artificial, houve aportes bilionários na indústria de semicondutores e minerais estratégicos. Se a Anthropic sucumbir à pressão, o caso poderá redefinir os limites da autonomia corporativa no desenvolvimento de tecnologias de ponta.
Leia mais:
Zelensky afirma que Putin iniciou a Terceira Guerra Mundial e rejeita concessões
ONU alerta para risco de limpeza étnica em Gaza após ataques
Morte de El Mencho desata onda de violência e bloqueios no México

