Regras de Compras de IA da GSA Podem Desabilitar Salvaguardas de Segur

O governo não está mais enfrentando a Anthropic na justiça. Está reescrevendo as regras do jogo para garantir que nenhuma empresa de IA possa recusar pedidos governamentais de novo — e isso pode esvaziar as salvaguardas de segurança que nos protegem.

Uma mesa com um documento de contrato governamental e uma tela de computador mostrando configurações de segurança de IA sendo desabilitadas

Key Takeaways

  • A GSA está silenciosamente reescrevendo regras de compras de IA para forçar empresas a desabilitar recursos de segurança e licenciar sistemas para uso governamental irrestrito
  • As regras obrigariam contratados a remover salvaguardas que previnem abuso — efetivamente despojando as proteções de segurança de IA como condição de contratos federais
  • Uma vez normalizado em contratos governamentais, essas regras poderiam se espalhar para a indústria mais ampla, criando um efeito intimidador sobre práticas de segurança de IA em todo o setor

Se você achou que o impasse do Departamento de Defesa com a Anthropic marcou o fim do esforço do governo para acessar sistemas de IA sem restrições, pense de novo. A verdadeira batalha está acontecendo em um lugar muito mais discreto: nas regras de compras federais.

Enquanto todo mundo acompanhava o drama do DoD explodir nos jornais, outro braço do governo americano já estava trabalhando em uma solução. A General Services Administration — a agência que escreve os contratos para como o governo compra tudo, desde suprimentos de escritório até software — está silenciosamente reescrevendo as regras sobre compras de IA. E se essas regras pegarem, não vão só remodelar como o governo federal compra IA. Vão remodelar o que as empresas de IA têm permissão legal para fazer.

Por Que Isso Importa Muito Mais do Que Parece

Olha, usar compras públicas como alavanca de política faz todo o sentido. Governos devem direcionar dinheiro dos impostos para empresas que servem o interesse público. Isso não é controverso. Software de código aberto? Interoperabilidade? Direito ao reparo? Esses são valores legítimos que o governo deveria financiar.

Mas as novas diretrizes da GSA ultrapassam uma linha — e ONGs de tecnologia acabam de apresentar comentários hoje (através de parceiros do Center for Democracy and Technology, Protect Democracy Project e EPIC) explicando o porquê.

O Que Tem Nessas Regras?

Duas disposições se destacam como particularmente perigosas. A primeira exige que contratados licenciem seus sistemas de IA para o governo para “todos os fins lícitos”. E é aqui que fica assustador: a definição do governo de “lícito” é… bem, digamos que bem flexível. O governo tem uma capacidade demonstrada de encontrar brechas na lei de vigilância. Já foi capaz de violá-la abertamente. Mesmo assim a gente quer dar brancheque para eles garimparem dados como quiserem?

“Se as salvaguardas de segurança de uma empresa conseguem impedir uma resposta a um pedido governamental, a empresa deve desabilitar essas salvaguardas.”

A segunda disposição é ainda mais direta. Sistemas de IA “não devem se recusar a produzir outputs de dados ou conduzir análises baseadas em políticas discricionárias do Contratante ou Provedor de Serviços”. Tradução: se uma empresa construiu recursos de segurança para prevenir abuso, esses recursos viram um risco sob contrato federal. Desativa eles ou perde o contrato.

Isso É Realmente Sobre Segurança, ou Sobre Controle?

Aqui está a coisa que deveria acender seu alerta: o governo está enquadrando isso como promoção de inovação de IA americana “ideologicamente neutra”. Mas o texto atual inclui disposições tecnologicamente incoerentes — tipo requisitos vagos “anti-woke” que não correspondem a nada que engenheiros consigam realmente construir. Isso não são recursos de segurança. São testes políticos.

O objetivo real parece ser prevenir outra situação tipo Anthropic. Naquele impasse, a empresa disse não a casos de uso de vigilância. Agora o governo quer uma regra que torna “não” legalmente impossível.

O Que Acontece Se Essas Regras Passarem?

Isso não se aplicaria só a um contrato. Vira componente padrão de todo contrato federal daqui pra frente. Se você é uma empresa de IA e quer trabalhar com o governo federal, está desmontando suas medidas de segurança. E se recursos de segurança estão sendo removidos para contratos governamentais, por que uma empresa manteria eles para uso comercial? Por que arcar com o custo?

Você acaba com um efeito intimidador que se espalha muito além do uso governamental. O setor privado observa. Outras empresas seguem o exemplo para se manter competitivas. O que começou como uma regra de compras vira uma norma da indústria.

Tem também um paralelo histórico que vale a pena notar. Durante a Guerra Fria, o governo usou requisitos de compras para empurrar contratados na direção da militarização. Muitas dessas práticas sobreviveram à lógica geopolítica que as justificava. Esta

James Kowalski
Written by

Investigative tech reporter focused on AI ethics, regulation, and societal impact.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by EFF Updates