OpenAI se mete en lo militar.
Y no como un simple asesor: es una alianza a todo gas con el Pentágono, anunciada entre rumores de modelos de IA de vanguardia clasificados para seguridad nacional. El acuerdo, que se filtró en documentos recientes y en los posts enigmáticos de Sam Altman, promete inyectar la tecnología de OpenAI en sistemas de defensa. Pero aquí viene lo gordo: todos hablan de ética y misiones, cuando la pregunta clave —la que nadie grita lo suficiente— es si sus barreras de seguridad aguantan en un campo de batalla.
OpenAI lleva desde el principio predicando alineación. ¿Recuerdan las previews de o1? Todo giraba en torno a cadenas de razonamiento que se autocorrigen para evitar daños. Sin embargo, Heidy Khlaaf, jefa científica de IA en el nonprofit AI Now Institute, lo pone en claro:
“En cuanto a barreras de seguridad para ‘decisiones de alto riesgo’ o vigilancia, las existentes para IA generativa son profundamente deficientes, y se ha demostrado lo fácil que es comprometerlas, intencionalmente o por accidente. Es muy dudoso que, si no protegen sus sistemas contra casos benignos, lo hagan en operaciones militares y de vigilancia complejas.”
Va al grano. Lo hemos visto: jailbreaks con cadenas de emojis, prompts de role-play que desactivan las protecciones como si nada. OpenAI parchea a toda prisa, vale. ¿Pero en lo militar? Eso no son trolls de Reddit; son adversarios con presupuestos de estado-nación, buscando vulnerabilidades zero-day en tiempo real.
¿Por qué las barreras de OpenAI se derrumban bajo presión?
Empecemos por la arquitectura. La IA generativa como los GPT son loros probabilísticos, entrenados en montañas de datos para predecir el siguiente token. ¿Seguridad? Se añade después: RLHF (aprendizaje por refuerzo con feedback humano), IA constitucional, son parches sobre una base que alucina por diseño. Métele decisiones militares de alto riesgo —digamos, identificar objetivos en feeds de drones— y se ve el problema.
Las salidas probabilísticas implican incertidumbre. El modelo da puntajes de confianza, claro, pero los adversarios manipulan la distribución de entrada. ¿Le das datos envenenados que imitan camuflaje enemigo? Pum, falsos positivos por todos lados. ¿Y por qué? Porque las leyes de escalado tienen límites; modelos más grandes no se alinean mágicamente, solo amplifican sesgos del entrenamiento basura. El o1 de OpenAI intenta razonamiento paso a paso con chain-of-thought, pero es puro teatro. Pruebas muestran que cae ante ataques sofisticados, según los reportes de red-teaming de Anthropic (sí, la competencia soltando té).
Pero —giro argumental— OpenAI lo sabe. Sus papers de STRRLM admiten que los comportamientos emergentes escapan al control. Entonces, ¿por qué el Pentágono? Plata, obvio. Los dólares de defensa eclipsan al VC civil hoy en día. Aun así, huele a deriva misional. ¿Recuerdan su charter original? Prohibía usos militares. Altman lo dio vuelta el año pasado, hablando de necesidades “defensivas”. Bonito giro, pero la vigilancia no es defensa.
Un ángulo que nadie menciona: esto repite el nacimiento de internet. DARPA financió ARPANET en los 60 para comunicaciones a prueba de nucleares, parió TCP/IP. ¿Comercializado? Claro. Pero la supervisión militar temprana metió puertas traseras —piensen en las raíces de PRISM del NSA. ¿OpenAI-Pentágono? Mismo libreto. Modelos de frontera endurecidos para la guerra podrían sembrar tech dual-use civil con ganchos indetectables. No es conspiración; es historia.
¿Puede el dinero del Pentágono arreglar el desastre de alineación de OpenAI?
Respuesta corta: Ni de coña.
Respuesta larga se extiende como un memo político flojo. OpenAI quema 7 mil millones al año solo en cómputo —TPUs, H100s apiladas hasta el cielo. ¿Contratos militares? Endulzan la olla, quizás desbloqueen datasets del DoD para ajuste fino. Pero el alineamiento es el talón de Aquiles. Las barreras actuales —dirección de activación, métodos de debate— son juguetes de