O conflito entre a Anthropic e o governo dos EUA levou Washington a preparar novas diretrizes para contratos públicos de inteligência artificial. As regras pretendem garantir que os modelos possam ser usados pelo governo para qualquer finalidade legal.
De acordo com o Financial Times, um projeto de orientações governamentais determina que empresas de IA que pretendam trabalhar com o Estado concedam aos EUA uma licença irrevogável para usar os seus sistemas.
A proposta foi preparada pela General Services Administration (GSA). O objetivo é reforçar as regras de aquisição de serviços de inteligência artificial em todo o governo federal.
Governo quer liberdade total no uso de modelos de IA
O documento estabelece que empresas de IA devem permitir “qualquer uso legal” das suas tecnologias quando firmam contratos com o governo.
Assim, Washington pretende evitar limitações impostas pelos fornecedores.
Segundo o Financial Times, o princípio aproxima-se das condições que o Pentágono analisa para contratos militares.
Além disso, a medida surge após um confronto direto com a Anthropic, empresa que recusou conceder ao Departamento da Defesa liberdade total sobre o uso da sua tecnologia.
Veja também: OpenAI revê acordo com Pentágono após polémica
Pentágono cancelou contrato de 200 milhões de dólares
O Departamento da Defesa anunciou recentemente que iria cancelar um contrato de 200 milhões de dólares com a Anthropic.
A empresa argumentou que o acesso irrestrito poderia permitir vigilância doméstica em massa ou uso em armamento autónomo letal.
Por esse motivo, a start-up defendeu a inclusão de salvaguardas específicas no contrato.
Contudo, o secretário da Defesa, Pete Hegseth, afirmou que o verdadeiro objetivo da empresa era obter poder de veto sobre decisões operacionais militares.
Além disso, a Casa Branca classificou a Anthropic como risco para a cadeia de abastecimento, uma medida normalmente aplicada a empresas chinesas ou russas.
Novas regras também visam neutralidade ideológica
As orientações da GSA incluem ainda regras sobre o funcionamento dos modelos de IA.
Os contratantes deverão fornecer ferramentas neutras e não partidárias, sem manipular respostas em favor de ideologias.
A proposta segue uma ordem executiva do presidente Donald Trump dirigida contra modelos de IA considerados “woke”.
Por outro lado, o documento também exige que empresas revelem se os modelos foram adaptados para cumprir regulações estrangeiras, incluindo a Digital Services Act da União Europeia.
Governo consulta indústria antes da versão final
A GSA, liderada por Ed Forst, coordena a compra de software para o governo federal.
No último ano, a sua divisão Federal Acquisition Service, dirigida por Josh Gruenbaum, assinou acordos com empresas como OpenAI, Meta, xAI e Google.
Esses contratos permitem que agências federais utilizem modelos de IA a custos reduzidos.
No entanto, após o confronto com o Pentágono, a GSA decidiu terminar o acordo com a Anthropic.
Segundo o Financial Times, o governo irá agora recolher comentários da indústria antes de finalizar as novas diretrizes.

