Закупочные правила GSA по ИИ могут отключить ограничения безопасности

Федеральное правительство больше не судится с Anthropic. Оно переписывает правила игры, чтобы ни одна ИИ-компания не смогла отказать госзапросу — и это грозит размыть предохранители, защищающие нас всех.

Стол с документом госконтракта и экран компьютера, на котором отключаются параметры безопасности ИИ

Key Takeaways

  • GSA в тишине переписывает правила закупок ИИ, чтобы заставить компании отключать предохранители и лицензировать системы для неограниченного госиспользования
  • Правила потребуют от подрядчиков убирать ограничения на неправомерное использование — фактически размывая защиту ИИ как условие федеральных контрактов
  • Раз нормализовавшись в госконтрактах, эти правила могут распространиться на всю индустрию, создав охлаждающий эффект на практики безопасности ИИ во всём секторе

Федеральное правительство больше не судится с Anthropic. Оно переписывает правила игры, чтобы ни одна ИИ-компания не смогла отказать госзапросу — и это грозит размыть предохранители, защищающие нас всех.

Если вы думали, что противостояние Министерства обороны с Anthropic — это конец попыток правительства получить доступ к ИИ без ограничений, спешу вас разочаровать. Настоящее сражение разворачивается совсем в другом месте: в правилах федеральных закупок.

Пока все следили за драмой в DoD, другое ведомство США уже работало над решением. Администрация общих служб (GSA) — агентство, которое пишет контракты для госзакупок всего, от канцелярских принадлежностей до ПО — потихоньку переписывает правила закупок ИИ-систем. И если эти правила примут, они изменят не только то, как федеральное правительство покупает ИИ. Они изменят, что юридически разрешено делать ИИ-компаниям.

Почему это намного серьёзнее, чем звучит

Использовать закупочный механизм как инструмент политики — логично. Государство должно направлять налоговые деньги компаниям, которые служат общественному интересу. В этом нет ничего спорного. Открытый исходный код? Совместимость? Право на ремонт? Совершенно законные ценности, которые государство должно поддерживать.

Но новые рекомендации GSA переходят черту — и технологичные НКО только что подали комментарии (через Center for Democracy and Technology, Protect Democracy Project и EPIC), объясняя почему.

Что конкретно в этих правилах?

Две позиции выглядят особенно опасно. Первая требует, чтобы подрядчики лицензировали свои ИИ-системы государству для «всех законных целей». А вот где становится по-настоящему страшно: определение «законного» у федералов… скажем, гибкое. Федеральное правительство неоднократно демонстрировало способность находить лазейки в законах о надзоре. Оно было готово их нарушать. Нужно ли нам по сути давать им чистый чек на любые данные?

«Если предохранители компании могут помешать ответить на госзапрос, компания должна их отключить».

Вторая позиция совсем прямолинейна. ИИ-системы «не должны отказывать в выдаче данных или анализе на основе дискреционной политики подрядчика или поставщика услуг». По-русски: если компания встроила защиту от неправомерного использования, эта защита становится уязвимостью по контракту. Отключишь — потеряешь контракт.

Это действительно о безопасности или о контроле?

Вот что должно вас насторожить: правительство преподносит это как продвижение «идеологически нейтрального» американского ИИ. Но в самом тексте есть требования, которые технологически просто не имеют смысла — вроде расплывчатых норм против «woke-культуры», которые инженеры вообще не могут реализовать. Это не элементы безопасности. Это политические испытания.

Настоящая цель похожа на желание предотвратить ещё одну ситуацию с Anthropic. Тогда компания отказалась использовать свои системы в надзорных целях. Теперь правительство хочет правило, которое сделает отказ юридически невозможным.

Что произойдёт, если эти правила примут?

Это не будут правила для одного контракта. Они станут стандартом для каждого федерального контракта дальше. Хочешь работать с государством как ИИ-компания — разбери свои ограничения безопасности. И если предохранители отключают для государства, почему компания будет их поддерживать в коммерческом использовании? Зачем нести затраты?

Возникает охлаждающий эффект, который распространяется далеко за пределы госсектора. Приватный сектор смотрит. Другие компании следуют примеру, чтобы оставаться конкурентоспособными. То, что началось как закупочное правило, становится нормой индустрии.

Историческая параллель здесь впечатляет. Во времена холодной войны правительство использовало требования к подрядчикам, чтобы подталкивать их к милитаризации. Многие из этих практик пережили сам геополитический конфликт. Мы видим, как нечто подобное разворачивается с ИИ прямо сейчас.

Что говорят технологичные НКО

Организации, подающие комментарии, не против госрасходов на ИИ. Они против того, чтобы использовать закупки для решения вопроса, который должен открыто обсуждаться.

James Kowalski
Written by

Investigative tech reporter focused on AI ethics, regulation, and societal impact.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by EFF Updates