Las nuevas reglas de contratación de IA de la GSA podrían desactivar b

El gobierno ya no lidia con Anthropic en los tribunales. Está reescribiendo las reglas para asegurarse de que ninguna empresa de IA pueda volver a negarse a las solicitudes gubernamentales, y eso podría vaciar las barreras de seguridad que nos protegen a todos.

Un escritorio con un documento de contrato gubernamental y una pantalla de computadora mostrando configuraciones de seguridad de IA siendo desactivadas

Key Takeaways

  • La GSA está reescribiendo silenciosamente las reglas de contratación de IA para obligar a las empresas a desactivar características de seguridad y licenciar sistemas para uso gubernamental sin restricciones
  • Las reglas obligarían a los contratistas a eliminar barreras que previenen el mal uso, desmantelando efectivamente las protecciones de seguridad de IA como condición de los contratos federales
  • Una vez normalizadas en contratos gubernamentales, estas reglas podrían extenderse a toda la industria, creando un efecto inhibidor en las prácticas de seguridad de IA en todo el sector

Si crees que el enfrentamiento entre el Departamento de Defensa y Anthropic fue el final de los esfuerzos del gobierno por acceder a sistemas de IA sin restricciones, piénsalo de nuevo. La verdadera batalla ocurre en un lugar mucho más silencioso: en las reglas de contratación federal.

Mientras todos miraban cómo se desarrollaba el conflicto con el DoD en los titulares, otra rama del gobierno estadounidense ya estaba trabajando en una solución. La Administración de Servicios Generales (GSA)—la agencia que redacta los contratos para todo lo que el gobierno compra, desde suministros de oficina hasta software—está reescribiendo silenciosamente las reglas sobre contratación de IA. Y si estas reglas se mantienen, no solo van a reformar cómo el gobierno compra IA. Van a reformar lo que las empresas de IA tienen permitido legalmente hacer.

Por Qué Esto Importa Mucho Más De Lo Que Parece

Mira, usar las compras públicas como palanca política tiene lógica. Los gobiernos deberían dirigir los impuestos de los contribuyentes hacia empresas que sirvan el interés público. Eso no es controvertido. ¿Software de código abierto? ¿Interoperabilidad? ¿Derecho a reparar? Son valores legítimos que el gobierno debería financiar.

Pero las nuevas directrices de la GSA cruzan una línea—y hoy mismo (a través de asociados del Centro para la Democracia y la Tecnología, el Proyecto Proteger la Democracia y EPIC) las organizaciones de tecnología sin fines de lucro presentaron comentarios explicando por qué.

¿Qué Contienen Exactamente Estas Reglas?

Dos disposiciones destacan como particularmente peligrosas. La primera requiere que los contratistas licencien sus sistemas de IA al gobierno para “todos los propósitos legales”. Y aquí es donde se pone escalofriante: la definición del gobierno sobre “legal” es… bueno, digamos que flexible. Los federales tienen un historial demostrado de encontrar vacíos legales en la ley de vigilancia. Han estado dispuestos a violarla abiertamente. ¿De verdad queremos darles acceso ilimitado para extraer datos como quieran?

“Si las barreras de seguridad de una empresa podrían evitar responder a una solicitud gubernamental, la empresa debe desactivar esas barreras”.

La segunda disposición es aún más directa. Los sistemas de IA “no deben negarse a producir datos o realizar análisis basados en políticas discrecionales del Contratista o Proveedor de Servicios”. En otras palabras: si una empresa incorporó características de seguridad para prevenir el mal uso, esas características se convierten en un pasivo bajo contrato federal. Desactívalas o pierdes el contrato.

¿Esto Realmente Trata Sobre Seguridad O Sobre Control?

Aquí está lo que debería encender todas tus alarmas: el gobierno presenta esto como promoción de la innovación en IA estadounidense “ideológicamente neutral”. Pero el texto real incluye disposiciones que son tecnológicamente incoherentes—como requisitos vagos “anti-woke” que no corresponden a nada que los ingenieros puedan construir. Esos no son mecanismos de seguridad. Son pruebas de lealtad política.

El objetivo real parece ser evitar otra situación como la de Anthropic. En ese enfrentamiento, la empresa dijo que no a casos de vigilancia. Ahora el gobierno quiere una regla que haga que “no” sea legalmente imposible.

¿Qué Sucede Si Estas Reglas Se Aprueban?

Estas no se aplicarían solo a un contrato. Se convierten en componentes estándar de todos los contratos federales a partir de entonces. Si eres una empresa de IA y quieres trabajar con el gobierno federal, estás desmantelando tus medidas de seguridad. Y si las características de seguridad se desactivan para contratos gubernamentales, ¿por qué una empresa las mantendría para uso comercial? ¿Por qué asumir ese costo?

Terminas con un efecto inhibidor que se expande mucho más allá del uso gubernamental. El sector privado lo observa. Otras empresas siguen el ejemplo para seguir siendo competitivas.

James Kowalski
Written by

Investigative tech reporter focused on AI ethics, regulation, and societal impact.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by EFF Updates