A OpenAI entrou pra valer no mundo militar.
E não é daqueles papéis vagos de consultoria, não — é uma parceria declarada com o Pentágono, anunciada no meio de rumores sobre modelos de IA de ponta classificados pra segurança nacional. O acordo, que apareceu em documentos recentes e nos posts enigmáticos do Sam Altman, vai injetar a tech da OpenAI em sistemas de defesa. Mas aí vem a bomba: todo mundo tá falando de ética e missão, quando a pergunta de verdade — que ninguém tá gritando alto o suficiente — é se as salvaguardas de segurança deles sobrevivem a um campo de batalha.
Olha, a OpenAI prega alinhamento desde o berço. Lembra daqueles previews do o1? Tudo sobre cadeias de raciocínio que supostamente se auto fiscalizam pra evitar danos. Mas a Heidy Khlaaf, chefe cientista de IA do instituto sem fins lucrativos AI Now, botou o dedo na ferida:
“Em termos de salvaguardas de segurança para ‘decisões de alto risco’ ou vigilância, as salvaguardas existentes pra IA generativa são profundamente deficientes, e já foi mostrado o quão fácil é comprometê-las, de propósito ou sem querer. É bem duvidoso que, se elas não protegem os sistemas contra casos inofensivos, vão conseguir lidar com operações militares e de vigilância complexas.”
Ela acertou em cheio. A gente já viu: jailbreaks com strings de emoji, prompts de role-play que desligam as proteções num estalo. A OpenAI tapa buracos sem parar — beleza. Mas militar? Isso não é troll do Reddit; são adversários com orçamento de nação-Estado, caçando zero-days em tempo real.
Por que as salvaguardas da OpenAI desmoronam sob pressão?
Começa pela arquitetura. IA generativa tipo GPTs? São papagaios probabilísticos, treinados em pilhas de dados pra prever o próximo token. Segurança? É um remendo pós-treino: RLHF (aprendizado por reforço com feedback humano), IA constitucional, essas gambiarras em cima de uma base que alucina por natureza. Joga decisões militares de alto risco — tipo identificação de alvos em feeds de drones — e o problema fica escancarado.
Saídas probabilísticas significam incerteza. O modelo cospe scores de confiança, claro, mas adversários manipulam a distribuição de input. Alimenta dados envenenados imitando camuflagem inimiga? Pum, falsos positivos chovem. E por quê? Porque as leis de escala batem na parede; modelos maiores não alinham magicamente — eles amplificam viéses do lixo de treino. O o1 da OpenAI tenta chain-of-thought pra raciocinar passo a passo, mas é só teatro. Testes mostram que ele cai pra ataques sofisticados, segundo relatórios de red-teaming da própria Anthropic (é, concorrentes jogando lenha na fogueira).
Mas — reviravolta — a OpenAI sabe disso. Os papers STRRLM deles admitem que comportamentos emergentes escapam do controle. Então por que Pentágono? Grana, óbvio. Dólares de defesa eclipsam VC civil hoje em dia. Mas fede a desvio de missão. Lembra da carta antiga deles? Proibia uso militar. O Altman virou a chave ano passado, falando em necessidades “defensivas”. Bonitinho, mas vigilância não é defesa.
Uma sacada que ninguém tá fazendo: isso repete o nascimento da internet. A DARPA bancou a ARPANET nos anos 60, pariu TCP/IP pra comunicações à prova de bomba nuclear. Comercializou? Claro. Mas a supervisão militar inicial enfiou backdoors — pensa nas raízes do PRISM da NSA. OpenAI-Pentágono? Mesmo roteiro. Modelos de ponta endurecidos pra guerra podem semear tech civil de uso duplo com ganchos indetectáveis. Não é teoria da conspiração; é história.
O dinheiro do Pentágono conserta a bagunça de alinhamento da OpenAI?
Resposta curta: Não.
Resposta longa é um relatório de política mal feito. A OpenAI queima 7 bilhões de dólares por ano só em compute — TPUs, H100s empilhadas até o céu. Contratos militares? Doçam o pote, talvez liberem datasets do DoD pra fine-tuning. Mas o alinhamento é o calo. Salvaguardas atuais — activation steering, métodos de debate — são brinquedos de lab. Escala pra vigilância (câmeras de fronteira parseando ro