AI Ethics

CEO OpenAI извиняется за ненадлежащее использование ИИ-бота

Генеральный директор OpenAI Сэм Альтман выступил с публичными извинениями после использования их ИИ в трагической массовой стрельбе. Компания ранее заблокировала аккаунт подозреваемого, но не уведомила правоохранительные органы.

Генеральный директор OpenAI Сэм Альтман выступает на конференции.

Key Takeaways

  • Генеральный директор OpenAI Сэм Альтман извинился за то, что компания не уведомила правоохранительные органы о подозреваемом в массовом убийстве, чей аккаунт ChatGPT был заблокирован.
  • Аккаунт подозреваемого был заблокирован в июне 2025 года за описание сценариев с применением насилия с использованием оружия, однако сотрудники OpenAI обсуждали и в итоге решили не уведомлять власти до стрельбы.
  • Премьер Британской Колумбии Дэвид Иби заявил, что, хотя извинения необходимы, они «в высшей степени недостаточны» для причинённого вреда.

Извинений недостаточно, говорят жертвы.

Картина прямо из антиутопического кошмара, не так ли? ИИ, осведомлённый об извращённых фантазиях потенциального массового убийцы, хранит эту информацию, пока гаснут реальные жизни. А затем, спустя дни, компания-разработчик приносит скорбные извинения. Именно это произошло в тихом канадском городке Тамблер-Ридж, где генеральный директор OpenAI Сэм Альтман написал письмо жителям, выразив «глубочайшее сожаление» по поводу того, что его компания не уведомила правоохранительные органы о 18-летнем Джесси Ван Рутсларе. Ван Рутслар, который, как утверждается, убил восемь человек, имел заблокированный аккаунт ChatGPT в июне 2025 года после описания в диалоге с ИИ сценариев, связанных с насилием с применением огнестрельного оружия. Внутренняя дискуссия в OpenAI, как сообщила The Wall Street Journal, сводилась к вопросу, стоит ли сообщать об этом властям. Они не сообщили. Не до тех пор, пока не прозвучали выстрелы.

Архитектура колебаний

Давайте не будем увязать в банальностях. Главная проблема здесь не просто просчёт; это яркая иллюстрация сложного, зачастую мучительного, этического каната, по которому ходят ИИ-компании. Когда ИИ обнаруживает потенциально опасный пользовательский ввод, что становится триггером для эскалации? Текущая позиция OpenAI предполагает, что они перенастраивают эти пороги, стремясь к более гибким критериям и устанавливая прямые каналы связи с канадскими правоохранительными органами. Но это вызывает вопрос: почему механизм, достаточно надёжный для обработки явных описаний насилия с применением оружия, уже не был внедрён, или почему существующий механизм не активировал должные каналы? Речь идёт не о том, мог ли ИИ предсказать будущее; речь идёт о том, правильно ли архитектура безопасности, окружающая ИИ, трансформировала явный «красный флаг» в действенную информацию для человеческого вмешательства.

Сэм Альтман в своём письме, опубликованном Tumbler RidgeLines, заявил, что обсуждал трагедию с местными чиновниками, и они взаимно согласились, что извинения необходимы. «Хотя я знаю, что слова никогда не могут быть достаточными, я считаю, что извинение необходимо, чтобы признать вред и необратимую утрату, которую понесло ваше сообщество», — написал он. Однако премьер Британской Колумбии Дэвид Иби в своём посте на X высказался более резко, назвав извинения «необходимыми, и при этом в высшей степени недостаточными для той разрухи, что постигла семьи Тамблер-Риджа». В этом-то и загвоздка, не так ли? Извинения — это процедурный шаг, мера по контролю за ущербом, но они мало что делают для устранения общественного разлома, который открылся.

Было ли решение OpenAI просто невезением или плохим дизайном?

Инцидент остро высвечивает непростой вопрос безопасности ИИ и ответственности. Когда инструмент, предназначенный для обработки и генерации текста, похожего на человеческий, сталкивается с пользователем, описывающим насильственные действия, внутренняя дискуссия в такой компании, как OpenAI, — это не просто модерация контента; это потенциальное предотвращение вреда в реальном мире. Решение не уведомлять канадские власти, даже после блокировки аккаунта Ван Рутслара, предполагает сбой в протоколах безопасности ИИ или, что более критично, в человеческих процессах, предназначенных для интерпретации и реагирования на его выводы. Была ли сама блокировка сочтена достаточной мерой? Взвешивались ли при внутренних обсуждениях риски ложного срабатывания против риска не сообщить о реальной угрозе? Это не просто исправление бага; это фундаментальная архитектурная проблема для всех поставщиков генеративного ИИ.

Моё уникальное понимание здесь в том, что дело не только в OpenAI. Этот инцидент неизбежно ускорит нормативный контроль над ИИ-компаниями по всему миру. Мы выходим за рамки гипотетических дискуссий о рисках ИИ в сторону конкретных, трагических примеров, которые политики больше не могут игнорировать. Ожидайте серьёзного давления в сторону обязательного отчёта об определённых угрозах, выявленных ИИ, вероятно, по аналогии с отчётами об инцидентах кибербезопасности. Текущий подход, когда компании саморегулируют протоколы безопасности, а затем приносят извинения постфактум, становится неприемлемым. Ожидания смещаются с «Нам жаль» на «Как вы предотвратите это в будущем, и будете ли вы нести ответственность, если этого не сделаете?»

Это далеко от ранних дней ИИ, когда ажиотаж был сосредоточен на творческом письме и генерации новых идей. Теперь же разговор брутально сфокусирован на потенциале злоупотребления, и системы, построенные для предотвращения такого злоупотребления, тестируются на самом безжалостном ринге, который только можно представить: реальном мире.

Канадские власти, предсказуемо, рассматривают новые нормы. Таков предсказуемый сценарий: разворачивается трагедия, правительства реагируют, и технологическая индустрия вынуждена адаптироваться к новому нормативному ландшафту. Вопрос остаётся в том, будут ли эти нормы проактивными и продуманными, или реактивными и подавляющими.


🧬 Связанные материалы

Sarah Chen
Written by

AI research reporter covering LLMs, frontier lab benchmarks, and the science behind the models.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by TechCrunch - AI