A OpenAI revê acordo com Pentágono após polémica relacionada com vigilância doméstica e uso militar de inteligência artificial. O acordo OpenAI Pentágono foi alterado poucos dias depois de assinado, segundo o Financial Times.
A empresa tinha fechado entendimento com o Departamento da Defesa dos EUA na sexta-feira. O contrato previa a utilização dos seus modelos de IA em operações militares classificadas. No entanto, a decisão gerou críticas internas e externas.
Alterações ao acordo OpenAI Pentágono
Sam Altman afirmou que a empresa está a trabalhar com o Pentágono para incluir novas cláusulas. Essas disposições garantem que o sistema “não será intencionalmente utilizado para vigilância doméstica de cidadãos e nacionais dos EUA”.
Além disso, os serviços de informação, como a National Security Agency, ficam excluídos do acordo por agora. Altman reconheceu que a comunicação inicial foi apressada. “As questões são extremamente complexas e exigem comunicação clara”, escreveu.
Veja também: OpenAI bloqueia uso político indevido da IA
Pressão interna e críticas públicas
Entretanto, surgiram protestos junto ao escritório da OpenAI em São Francisco. Grafitis com a frase “NO TO MASS SURVEILLANCE” apelaram aos trabalhadores para “fazerem o que é certo”.
Segundo o Financial Times, funcionários da empresa também manifestaram preocupações internamente. As críticas centraram-se no risco de vigilância em massa e no uso de IA em armas autónomas.
Negociações falhadas com a Anthropic
O acordo OpenAI Pentágono surgiu após o colapso das negociações entre o Departamento da Defesa e a Anthropic. Dario Amodei, CEO da Anthropic, tinha definido duas linhas vermelhas. Proibiu vigilância doméstica em massa e armas autónomas letais.
O secretário da Defesa, Pete Hegseth, defendia que os modelos estivessem disponíveis para “qualquer utilização legal”. As partes não chegaram a acordo sobre a redação contratual, sobretudo no que toca à recolha massiva de dados públicos.
Contexto político e impacto governamental
Entretanto, a administração norte-americana ameaçou excluir a Anthropic de contratos governamentais. O Tesouro dos EUA, a Federal Housing Finance Agency e as entidades hipotecárias Fannie Mae e Freddie Mac anunciaram o fim dos seus contratos com a empresa.
Por sua vez, Paul Nakasone, membro do conselho da OpenAI, defendeu cooperação entre democracias e empresas tecnológicas. “Esta tecnologia precisa de ser utilizada pelas democracias”, afirmou ao FT.

