Inteligência ArtificialNegócios & Inovação

EUA preparam novas regras para contratos de IA após impasse com Anthropic

Proposta surge após impasse entre o Pentágono e a empresa de IA Anthropic e pode redefinir as condições para companhias que desejam vender tecnologia ao governo americano.

O governo dos Estados Unidos está preparando um novo conjunto de regras para contratos de inteligência artificial que pode alterar significativamente a relação entre empresas de tecnologia e o setor público. Segundo reportagem publicada pelo Financial Times, as diretrizes em discussão exigirão que companhias que firmarem acordos com o governo concedam uma licença ampla e irrevogável para que suas tecnologias de IA possam ser utilizadas para qualquer finalidade legal.

A proposta surge após um impasse envolvendo o Departamento de Defesa dos Estados Unidos e a startup de inteligência artificial Anthropic. Na quinta-feira (5), o Pentágono classificou a empresa como um “risco para a cadeia de suprimentos” e determinou que empresas contratadas pelo governo não utilizem sua tecnologia em projetos ligados às Forças Armadas americanas.

Donald Trump

A decisão foi tomada após meses de negociação entre a companhia e autoridades federais. A Anthropic defendia a adoção de salvaguardas técnicas em seus sistemas de IA — restrições projetadas para limitar determinados usos ou impedir aplicações consideradas sensíveis. Para o Departamento de Defesa, no entanto, essas limitações poderiam comprometer a flexibilidade necessária para aplicações governamentais, especialmente em áreas estratégicas como segurança nacional.

Licença ampla e obrigatória para uso governamental

De acordo com um rascunho das diretrizes obtido pelo Financial Times, empresas interessadas em fornecer tecnologias de inteligência artificial ao governo dos EUA deverão conceder uma licença irrevogável que permita ao Estado utilizar os modelos para qualquer finalidade considerada legal dentro da legislação americana.

As novas orientações foram elaboradas pela General Services Administration (GSA), órgão responsável por supervisionar grande parte das aquisições e contratos do governo federal. Inicialmente, as regras devem se aplicar a contratos civis, envolvendo serviços e plataformas digitais utilizados por diferentes agências governamentais.

Ainda assim, a iniciativa faz parte de um movimento mais amplo para estruturar uma política nacional de contratação de tecnologias baseadas em IA. Segundo o jornal britânico, o texto segue linhas semelhantes às medidas que o Pentágono também avalia implementar em contratos militares, sinalizando que a exigência pode se tornar padrão em todo o aparato federal.

Na prática, isso significa que empresas não poderão impor restrições técnicas que limitem determinados usos governamentais da tecnologia, desde que essas aplicações estejam dentro da lei. O objetivo é evitar situações em que salvaguardas embutidas no software impeçam o governo de aplicar a tecnologia em áreas estratégicas.

Neutralidade política e transparência sobre regulações externas

Outro ponto importante do rascunho envolve a forma como os modelos de inteligência artificial são treinados e configurados. As diretrizes determinam que empresas contratadas não devem codificar intencionalmente julgamentos partidários ou ideológicos nas respostas produzidas pelos sistemas.

A exigência reflete uma preocupação crescente dentro do governo americano sobre possíveis vieses políticos ou ideológicos em sistemas de IA generativa, especialmente aqueles utilizados para análise de dados, suporte a decisões administrativas ou interação com cidadãos.

Além disso, as empresas deverão informar se seus modelos foram modificados ou configurados para atender regras regulatórias de governos estrangeiros ou exigências impostas por entidades comerciais fora dos Estados Unidos. A medida busca garantir transparência sobre eventuais adaptações feitas para mercados internacionais que possam afetar o funcionamento da tecnologia em território americano.

Disputa revela nova fase da corrida global por IA

O episódio envolvendo a Anthropic ilustra como a corrida global pela inteligência artificial está rapidamente se tornando uma questão estratégica para governos. Startups e gigantes da tecnologia vêm desenvolvendo sistemas cada vez mais poderosos, capazes de gerar texto, imagens, código e análises complexas — tecnologias que também podem ter aplicações militares, de segurança e de inteligência.

Nos últimos anos, autoridades americanas têm buscado equilibrar dois objetivos potencialmente conflitantes: incentivar a inovação no setor privado e, ao mesmo tempo, garantir que o governo mantenha acesso pleno a tecnologias consideradas críticas.

Especialistas em políticas tecnológicas afirmam que novas regras contratuais podem se tornar um instrumento importante para esse equilíbrio. Ao exigir licenças amplas de uso e maior transparência sobre o funcionamento dos modelos, o governo tenta reduzir riscos de dependência tecnológica ou limitações impostas por fornecedores privados.

Caso as diretrizes sejam formalizadas, empresas de IA que pretendem atuar no mercado público dos Estados Unidos terão de adaptar suas políticas de segurança e governança tecnológica. Para muitas startups do setor, isso pode significar repensar como suas salvaguardas e mecanismos de controle são implementados dentro dos modelos.

Em um momento em que a inteligência artificial se consolida como um dos principais campos de disputa tecnológica global, as novas regras americanas indicam que a relação entre governos e desenvolvedores de IA tende a se tornar cada vez mais estratégica — e também mais regulada.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *