Pentágono classifica anthropic como risco estratégico após impasse sobre Ia militar

Pentágono rotula Anthropic como risco estratégico após impasse sobre uso militar de IA

A startup de inteligência artificial Anthropic tornou público um raro confronto com o Departamento de Defesa dos Estados Unidos depois que o secretário de Defesa, Pete Hegseth, determinou que a empresa fosse classificada como “risco à cadeia de suprimentos” para a segurança nacional. A decisão coroou meses de negociações tensas sobre até onde o modelo de IA Claude poderia ser empregado em operações militares.

No centro do conflito estão duas cláusulas que a Anthropic tentou inserir em seus contratos com o governo norte‑americano. A empresa exigiu, de forma explícita, que sua tecnologia não fosse utilizada para:
1) vigilância doméstica em larga escala contra cidadãos dos EUA;
2) desenvolvimento de armas totalmente autônomas, capazes de operar sem supervisão humana significativa.

Segundo a companhia, essas condições seriam inegociáveis. A direção da Anthropic afirma que não aceitará nenhum tipo de flexibilização que, na prática, abra brechas para o uso de seus modelos em sistemas de monitoramento interno em massa ou em armamentos que tomem decisões letais sem controle humano.

A crise ganhou nova dimensão quando o presidente Donald Trump, por meio de publicação em rede social, anunciou que todas as agências federais devem encerrar o uso de tecnologias da Anthropic em um prazo de seis meses. Em paralelo, Hegseth ordenou que contratados, fornecedores e parceiros ligados às Forças Armadas dos EUA interrompam imediatamente quaisquer relações comerciais com a startup.

O enquadramento da Anthropic como “risco à cadeia de suprimentos” foi formalmente sustentado na seção 10 USC 3252 da legislação norte‑americana, norma que permite restringir ou banir fornecedores avaliados como ameaça à segurança nacional. A startup, porém, alega que essa interpretação é juridicamente frágil. Na visão da empresa, mesmo se a classificação fosse mantida, o alcance da medida deveria se limitar a contratos diretamente relacionados ao Departamento de Defesa, sem atingir clientes privados ou outros órgãos civis do governo.

Em posicionamento recente, a Anthropic procurou deixar claro que não é contrária ao uso de IA pelo Estado em geral. A companhia declarou apoiar o emprego responsável de modelos de inteligência artificial em missões de inteligência e contrainteligência no exterior, desde que dentro da legalidade. O ponto de ruptura, segundo a empresa, é a vigilância em massa no território nacional. Para a Anthropic, a combinação de IA avançada com monitoramento doméstico em larga escala criaria riscos inéditos às liberdades civis, à privacidade e a valores centrais das democracias liberais.

Outro elemento de tensão está nas chamadas “restrições de uso” embutidas nos modelos de IA. Documentos internos do Departamento de Defesa indicam que o Pentágono busca sistemas com o mínimo possível de limitações incorporadas, para não restringir usos militares considerados legais pelos EUA. Em resumo, a preferência seria por modelos “destravados” do ponto de vista operacional, desde que o emprego final se mantenha dentro da lei do país e do arcabouço jurídico militar.

Um memorando do Departamento também afirma que as Forças Armadas não deveriam utilizar modelos com “ajustes ideológicos” que, na visão do Pentágono, possam interferir na entrega de respostas “objetivamente verdadeiras”. A formulação expõe um choque de visões: enquanto as big techs argumentam que precisam incorporar salvaguardas éticas e de segurança em seus modelos, autoridades militares demonstram preocupação com qualquer filtro que possa reduzir a utilidade operacional da IA em contextos de defesa.

Questionado sobre as críticas, o porta‑voz do Pentágono, Sean Parnell, negou que o Departamento tenha interesse em conduzir vigilância doméstica em massa ou em empregar armas autônomas sem supervisão humana. Ele classificou essa narrativa como falsa e reduziu o pedido feito à Anthropic à exigência de que o modelo Claude pudesse ser usado “para todos os fins legais”. Em outras palavras, o governo rejeita restrições prévias impostas pelo fornecedor e prefere ancorar limites apenas na legislação e nas políticas internas de defesa.

O embate rapidamente extrapolou o campo institucional e dividiu o setor de tecnologia. De um lado, centenas de funcionários de grandes empresas de IA manifestaram apoio às restrições éticas defendidas pela Anthropic, pedindo que suas próprias companhias mantenham linhas vermelhas claras quanto ao uso militar da inteligência artificial. De outro, figuras de destaque no Vale do Silício passaram a apoiar a postura mais agressiva do governo.

Entre essas vozes está Elon Musk, CEO da xAI, que declarou apoio à administração Trump e criticou a Anthropic por, em sua visão, querer impor “amarras ideológicas” à tecnologia. Musk tem defendido repetidamente que, diante de ameaças geopolíticas crescentes, os Estados Unidos não podem se dar ao luxo de limitar suas capacidades tecnológicas em nome de salvaguardas que ele considera excessivas ou politizadas.

Na outra ponta, o CEO da OpenAI, Sam Altman, adotou uma posição intermediária. Ele revelou que sua empresa fechou um acordo com o Departamento de Defesa para disponibilizar modelos de IA em redes governamentais classificadas, ou seja, ambientes de alta segurança usados por órgãos militares e de inteligência. Ao mesmo tempo, Altman frisou que a OpenAI mantém princípios considerados inegociáveis, entre eles a proibição de vigilância doméstica em massa e a exigência de responsabilidade humana final quando há uso de força – inclusive em sistemas autônomos.

Esse episódio expõe um ponto de inflexão na relação entre governos e grandes desenvolvedores de IA. Até pouco tempo, o debate girava sobretudo em torno de privacidade, desinformação e impactos no mercado de trabalho. Agora, a discussão avança para um terreno ainda mais sensível: quem define, na prática, os limites éticos de ferramentas que podem ser empregadas em contextos de guerra, espionagem e segurança interna? O Estado, em nome da soberania e da segurança nacional, ou as empresas, em nome da responsabilidade tecnológica e dos direitos civis?

A disputa também revela uma mudança no próprio poder de barganha das empresas de IA. Tradicionalmente, fornecedores de tecnologia militar aceitavam condições impostas pelo governo em troca de contratos bilionários. Com o surgimento de modelos de IA altamente concentrados em poucas empresas e com grande demanda global, alguns desses atores passaram a se ver como guardiões de normas éticas que, em tese, ultrapassam fronteiras nacionais. A Anthropic se coloca explicitamente nessa posição ao recusar determinados usos, mesmo sob risco de retaliação oficial.

Do ponto de vista jurídico, o caso pode criar precedentes importantes. Se a classificação de “risco à cadeia de suprimentos” for mantida e aplicada com rigor, outras empresas que insistirem em impor cláusulas éticas restritivas em contratos de defesa poderão enfrentar medidas semelhantes. Ao mesmo tempo, eventuais contestações em tribunais podem delimitar até onde o Executivo pode ir ao punir fornecedores por discordâncias sobre usos militares da tecnologia, especialmente quando não há comprovação de ameaça concreta à segurança nacional.

Há também implicações internacionais. Aliados dos Estados Unidos, que frequentemente seguem padrões e diretrizes do Pentágono em aquisições militares, podem observar atentamente o desfecho do caso Anthropic para calibrar suas próprias políticas. Países que desejam adotar códigos de conduta mais rígidos para IA de uso militar podem se inspirar no modelo de “linhas vermelhas contratuais” proposto pela Anthropic. Já aqueles com foco maior em capacidades estratégicas podem preferir a abordagem do “uso para todos os fins legais” defendida pelo Departamento de Defesa.

Para o ecossistema de cibersegurança e tecnologia, o episódio funciona como alerta. Sistemas de IA cada vez mais potentes serão, inevitavelmente, incorporados a infraestruturas críticas, operações de defesa cibernética, análise de ameaças e tomada de decisão em situações de crise. Sem diretrizes claras, o risco é que soluções inicialmente desenvolvidas para fins gerais acabem sendo adaptadas, silenciosamente, a aplicações que afetam diretamente direitos fundamentais.

Empresas de tecnologia, desenvolvedores e profissionais de segurança precisam, portanto, antecipar esse debate. Definir, desde já, quais usos consideram inaceitáveis, que salvaguardas técnicas podem ser incorporadas aos modelos (como recusas automáticas a determinados pedidos ou exigência de supervisão humana) e de que forma essas restrições serão comunicadas a clientes governamentais e corporativos deixa de ser apenas uma opção reputacional e passa a ser uma questão estratégica.

Ao mesmo tempo, é improvável que o setor público abra mão do potencial da IA em operações militares e de inteligência. Tecnologias capazes de analisar grandes volumes de dados, prever padrões de ataque ou otimizar a logística de tropas oferecem vantagens consideráveis em cenários de conflito e prevenção de ameaças. O desafio está em estabelecer mecanismos de governança que impeçam a escalada para formas de vigilância opressivas ou para sistemas de armas que atuem sem controle humano significativo.

Nesse contexto, o caso Anthropic‑Pentágono funciona como um laboratório político, jurídico e tecnológico. O resultado da disputa tende a influenciar a forma como futuras gerações de modelos de IA serão negociadas com Estados, em especial quando houver conflito entre exigências de segurança nacional e preocupações éticas globais. O equilíbrio entre esses dois polos – proteção do país e proteção dos direitos civis – deve definir a próxima fase da regulação e do uso militar da inteligência artificial no mundo.