Declaración de FLI sobre la Memorándum de Seguridad Nacional de IA

Los 35 empleados de FLI califican el nuevo memorándum de IA de la Casa Blanca como un 'paso crítico', pero critican su enfoque competitivo y falta de poder vinculante. Los defensores de la seguridad quieren mandatos, no memorándums.

Sello de la Casa Blanca superpuesto en placa de circuito de IA con cita del comunicado de FLI

Key Takeaways

  • El Memorándum de Seguridad Nacional de la Casa Blanca avanza la seguridad de IA en gobierno pero permanece voluntario, generando elogios cautelosos de FLI.
  • FLI advierte contra competencia solo estadounidense, impulsando cooperación con rivales como China para estabilidad global.
  • El memorándum empodera al Instituto de Seguridad de IA pero necesita mandatos para contrarrestar riesgos electorales y amenazas reales.

FLI cuenta con 35 empleados de tiempo completo en Estados Unidos y Europa, trabajando en riesgos de IA desde 2014. La semana pasada, analizaron el Memorándum de Seguridad Nacional sobre IA de la Casa Blanca. ¿Su veredicto? Una media aclamación, teñida de advertencias.

Mira. El memorándum ordena a las agencias de seguridad nacional mejorar la adquisición de IA, proteger la infraestructura de intrusos extranjeros, evaluar modelos riesgosos y reforzar el talento gubernamental. Designa al Instituto de Seguridad de IA del Departamento de Comercio como evaluador principal. Se ve bien en papel. Pero Hamza Chaudhry de FLI no descorcha champán.

“El Memorándum de Seguridad Nacional lanzado esta semana es un paso crítico hacia reconocer y abordar los riesgos inherentes al desarrollo de IA sin límites, especialmente en áreas de defensa, seguridad nacional y armas de guerra.

“Este memorándum contiene muchas acciones, esfuerzos y recomendaciones loables que, si se implementan, harán que Estados Unidos y el mundo sean más seguros frente a las amenazas e incertidumbres de la IA, incluyendo el empoderamiento del Instituto de Seguridad de IA del Departamento de Comercio de EE.UU. y el aumento de experiencia en IA en agencias y departamentos gubernamentales clave”.

Esa es la parte optimista. Chaudhry mantiene los pies en la tierra.

Memorándum de IA de la Casa Blanca: ¿Red de seguridad o falsa sensación de seguridad?

He aquí el problema: este Memorándum de Seguridad Nacional huele a urgencia, cronometrado justo antes de unas elecciones que podrían cambiar el rumbo de la política tecnológica. Se insta a las agencias a evaluar modelos que causen ‘riesgos de seguridad y seguridad pública’. ¿Suficientemente vago? Claro. Impulsa al Recurso Nacional de Investigación en IA a compartir avances con académicos y sociedad civil. Suena colaborativo. Excepto que FLI ve el elefante en la habitación: un ‘enfoque puramente competitivo’ hacia la IA.

Y tienen razón. Imagina: EE.UU. vs. China en una carrera armamentística de IA, modelos volviéndose más peligrosos cada mes. El memorándum autoriza verificaciones de seguridad pero se detiene en aprobaciones voluntarias. Sin multas. Sin prohibiciones. Solo orientación. FLI rechaza esto rotundamente: cooperen con competidores o pierdan gobernanza estable.

“Trabajar activamente con competidores estratégicos, además de aliados y socios cercanos, es crítico para garantizar el desarrollo responsable de IA y avanzar los intereses de seguridad nacional de EE.UU. La falta de cooperación hará más difícil cultivar un marco estable y responsable para avanzar la gobernanza de IA internacional que fomente el desarrollo y uso de IA seguro, seguro y confiable”.

Directo. Cierto. La historia lo grita: el secreto del Proyecto Manhattan generó armas nucleares, pero los casi-desastres de la Guerra Fría forzaron negociaciones sobre control de armas. La IA es igual. Ignora a los rivales ahora y estarás construyendo bombas más inteligentes sin frenos.

¿Realmente soluciona el Memorándum de Seguridad Nacional las pesadillas de seguridad nacional de la IA?

Respuesta corta: No. Aún no.

Excava más profundo. ¿Reglas de adquisición? Las agencias deben priorizar IA ‘segura y confiable’. Excelente, hasta que te das cuenta de que los grandes proveedores tecnológicos dominan, con sus propios análisis de riesgos maquillados. ¿Protección de infraestructura de ‘interferencia extranjera’? Los hackers se ríen de los memorándums. ¿Evaluaciones de modelos? El Instituto de Seguridad de IA obtiene el lugar, pero ¿bajo Comercio? Esos son los tipos de comercio, no los ultrahalcones de DARPA. ¿Construcción de talento? Claro, pero la fuga de cerebros de IA del gobierno es legendaria: el sector privado paga mejor.

FLI lo clava: esto es ‘solo el comienzo’. Exigen ‘requisitos obligatorios para IA segura’. ¿Compromisos voluntarios? Hemos visto esa película: las empresas asienten y luego avanzan a toda velocidad. ¿Recuerdas los compromisos de seguridad de OpenAI? Ahora persiguen AGI con supervisión mínima.

Mi opinión candente, ausente de la prosa cortés de FLI: este memorándum es un escudo de relaciones públicas para la administración. Lanzado en medio del calor electoral, permite que Biden alardee de liderazgo en IA sin molestar a los halcones de defensa o a los donantes de Silicon Valley. Predicción audaz: después de las elecciones, se cubrirá de polvo a menos que el Congreso lo ordene. ¿Trump 2.0? Ciudad de desregulación. ¿Harris? Ajustes incrementales. De cualquier forma, sin dientes internacionales, es teatro.

Pero espera: ángulo único. Retrocede a la Convención sobre Armas Biológicas de 1972. EE.UU. impulsó moratorios unilaterales primero, luego arrastró a los soviéticos a la mesa. La IA necesita ese manual: liderar con transparencia, no solo muros. El llamado de cooperación de FLI lo refleja perfectamente, pero Washington está demasiado ocupado con saña.

Por qué FLI está siendo más vocal sobre gobernanza de IA

FLI no es un grupo marginal. El tanque de pensamiento de IA más antiguo. 35 profesionales. Han moldeado el discurso, desde pausar modelos gigantes hasta tratados de la ONU. ¿La declaración de Chaudhry? Una crítica calculada. Elogio para tender puentes, advertencias para impulsar acción.

Pero el escepticismo reina. El memorándum empodera al Instituto de Seguridad de IA, bien. ¿Pero como ‘puerto de contacto’ principal? Eso es un cuello de botella. ¿Qué pasa si las evaluaciones chocan con necesidades del Pentágono? La autonomía armada es el fantasma en la máquina aquí. El Memorándum de Seguridad Nacional asiente a riesgos en ‘defensa’ y ‘armas de guerra’, pero sin líneas rojas sobre sistemas autónomos letales. ¿Drones asesinos con cerebros de IA? Todavía en el menú.

Y la patada electoral.

“Si bien el lanzamiento de este memorándum representa progreso en salvaguardar la implementación de IA en seguridad nacional y más allá, representa solo el comienzo de la acción urgente necesaria. Es vital que el gobierno pase de compromisos voluntarios a requisitos obligatorios para IA segura. Y es esencial que las prescripciones y recomendaciones del memorándum se conviertan en política, sin importar los resultados de las próximas elecciones”.

Alerta de humor seco: ‘Sin importar las elecciones’. Sí, claro. La política siempre es política.

Expande en riesgos. ¿IA sin control en seguridad? Piensa en modelos hackeados filtrando códigos nucleares, o ataques adversariales convirtiendo vigilancia en sabotaje. ¿Interferencia extranjera? China está invirtiendo miles de millones, EE.UU. no puede hacerlo solo. FLI tiene razón: aliados más competidores, o fracaso.

¿Es la cooperación con China en IA un sueño imposible?

Por supuesto que se siente imposible. Pero es necesario.

Las conversaciones de IA entre EE.UU. y China se desmoronaron después de la guerra comercial de 2018. ¿Ahora? Los controles de exportación sofocan chips, alimentando paranoia. El memorándum elude esto, enfocándose adentro. FLI no está de acuerdo: marcos estables exigen diálogo. Paralelo histórico: la capa de ozono. Los enemigos cooperaron en CFC. Los riesgos de extinción de IA superan eso.

Critica el giro. La Casa Blanca enmarca el Memorándum de Seguridad Nacional como liderazgo audaz. FLI lo pela: encomiable, claro, pero incompleto. Paralelo de marketing corporativo: Nvidia alardea de IA segura mientras gana miles de millones. Los gobiernos lo reflejan.

Más profundo aún. ¿Implicaciones para desarrolladores? Más papeleo en contratos federales. ¿Creadores de modelos? Auditorías de seguridad se avecinan. ¿Público? Infraestructura más segura, quizás. Pero sin mandatos, es maquillaje.

Deambula un poco: el brazo europeo de FLI agrega músculo, impulsando sinergias con la Ley de IA de la UE. El memorándum estadounidense podría armonizar, pero la cláusula de competencia lo mata.

Línea de fondo: Progreso. Apenas. ¿El codazo ácido de FLI? Sigue presionando por leyes, no por cartas.


🧬 Perspectivas Relacionadas

Preguntas Frecuentes

¿Qué es el Memorándum de Seguridad Nacional sobre IA de la Casa Blanca?

Es orientación para agencias estadounidenses sobre uso de IA, adquisición, seguridad, evaluación de riesgos y talento, autorizando el Instituto de Seguridad de IA como evaluador principal.

¿Hace el Memorándum de Seguridad Nacional el desarrollo de IA más seguro?

Parcialmente: promueve evaluaciones y experiencia, pero FLI dice que es voluntario y carece de cooperación internacional, necesitando reglas obligatorias.

¿Matarán las elecciones de 2024 este memorándum de IA?

FLI espera que no, instando a conversión política sin importar, pero la política podría descarrilarlo rápidamente.

Priya Sundaram
Written by

Hardware and infrastructure reporter. Tracks GPU wars, chip design, and the compute economy.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Future of Life Institute