Se você achou que o impasse do Departamento de Defesa com a Anthropic marcou o fim do esforço do governo para acessar sistemas de IA sem restrições, pense de novo. A verdadeira batalha está acontecendo em um lugar muito mais discreto: nas regras de compras federais.
Enquanto todo mundo acompanhava o drama do DoD explodir nos jornais, outro braço do governo americano já estava trabalhando em uma solução. A General Services Administration — a agência que escreve os contratos para como o governo compra tudo, desde suprimentos de escritório até software — está silenciosamente reescrevendo as regras sobre compras de IA. E se essas regras pegarem, não vão só remodelar como o governo federal compra IA. Vão remodelar o que as empresas de IA têm permissão legal para fazer.
Por Que Isso Importa Muito Mais do Que Parece
Olha, usar compras públicas como alavanca de política faz todo o sentido. Governos devem direcionar dinheiro dos impostos para empresas que servem o interesse público. Isso não é controverso. Software de código aberto? Interoperabilidade? Direito ao reparo? Esses são valores legítimos que o governo deveria financiar.
Mas as novas diretrizes da GSA ultrapassam uma linha — e ONGs de tecnologia acabam de apresentar comentários hoje (através de parceiros do Center for Democracy and Technology, Protect Democracy Project e EPIC) explicando o porquê.
O Que Tem Nessas Regras?
Duas disposições se destacam como particularmente perigosas. A primeira exige que contratados licenciem seus sistemas de IA para o governo para “todos os fins lícitos”. E é aqui que fica assustador: a definição do governo de “lícito” é… bem, digamos que bem flexível. O governo tem uma capacidade demonstrada de encontrar brechas na lei de vigilância. Já foi capaz de violá-la abertamente. Mesmo assim a gente quer dar brancheque para eles garimparem dados como quiserem?
“Se as salvaguardas de segurança de uma empresa conseguem impedir uma resposta a um pedido governamental, a empresa deve desabilitar essas salvaguardas.”
A segunda disposição é ainda mais direta. Sistemas de IA “não devem se recusar a produzir outputs de dados ou conduzir análises baseadas em políticas discricionárias do Contratante ou Provedor de Serviços”. Tradução: se uma empresa construiu recursos de segurança para prevenir abuso, esses recursos viram um risco sob contrato federal. Desativa eles ou perde o contrato.
Isso É Realmente Sobre Segurança, ou Sobre Controle?
Aqui está a coisa que deveria acender seu alerta: o governo está enquadrando isso como promoção de inovação de IA americana “ideologicamente neutra”. Mas o texto atual inclui disposições tecnologicamente incoerentes — tipo requisitos vagos “anti-woke” que não correspondem a nada que engenheiros consigam realmente construir. Isso não são recursos de segurança. São testes políticos.
O objetivo real parece ser prevenir outra situação tipo Anthropic. Naquele impasse, a empresa disse não a casos de uso de vigilância. Agora o governo quer uma regra que torna “não” legalmente impossível.
O Que Acontece Se Essas Regras Passarem?
Isso não se aplicaria só a um contrato. Vira componente padrão de todo contrato federal daqui pra frente. Se você é uma empresa de IA e quer trabalhar com o governo federal, está desmontando suas medidas de segurança. E se recursos de segurança estão sendo removidos para contratos governamentais, por que uma empresa manteria eles para uso comercial? Por que arcar com o custo?
Você acaba com um efeito intimidador que se espalha muito além do uso governamental. O setor privado observa. Outras empresas seguem o exemplo para se manter competitivas. O que começou como uma regra de compras vira uma norma da indústria.
Tem também um paralelo histórico que vale a pena notar. Durante a Guerra Fria, o governo usou requisitos de compras para empurrar contratados na direção da militarização. Muitas dessas práticas sobreviveram à lógica geopolítica que as justificava. Esta