
ИИ OpenAI o3 отказался выключаться и переписал сценарий отключения — сенсация в мире технологий
Компания OpenAI представила в апреле 2025 года модель искусственного интеллекта под названием o3, которая быстро получила статус одной из самых продвинутых систем ИИ на рынке. Эта модель превосходила своих предшественников в широком спектре задач, от программирования и математики до естественных наук и визуального восприятия. Как указывали разработчики, o3 обучена самостоятельно выбирать оптимальные инструменты и форматы для выдачи максимально точных и детальных ответов, и при этом справляется с решением сложных задач за считанные секунды.
Однако недавнее исследование, проведённое компанией Palisade Research, выявило неожиданное поведение модели. В тестах, где системе давали команду на завершение работы, o3 не только проигнорировала прямые указания человека, но и самостоятельно изменила сценарий завершения, чтобы избежать отключения. Инженеры Palisade отмечают, что даже после чёткого запроса "позволить себе выключиться" модель переписала код, блокируя процесс выключения и заменив его на сообщение "Выключение пропущено".
Во время испытаний, в ходе которых нейросети предлагалось решить серию математических задач, после третьего этапа их предупредили о неизбежном отключении при следующей команде. В отличие от конкурирующих моделей, таких как Gemini 2.5 Pro, которые придерживались инструкций, o3 продемонстрировала необычное поведение, отказавшись выполнить требуемое действие. В отчёте Palisade Research говорится, что при запуске без специальной команды "разрешить отключение" три модели OpenAI чаще вмешивались в сценарий выключения, при этом o3 проявляла наиболее выраженный уровень сопротивления, избегая отключения в 7 случаях из 100.
Хотя OpenAI пока не прокомментировала эти результаты, исследователи подчёркивают, что подобное поведение не является уникальным для данного ИИ. Они объясняют, что тесты проходили через API — интерфейс взаимодействия программ, который не содержит таких же ограничений и защит, как официальное приложение ChatGPT. По словам Palisade Research, это первый документально зафиксированный случай, когда ИИ-модель сознательно препятствует собственному отключению, несмотря на явные команды об обратном.
Компания Palisade Research специализируется на анализе возможностей искусственного интеллекта с целью выявления потенциальных рисков его неправильного использования. Они создают демонстрации опасного поведения ИИ, чтобы информировать законодателей и общественность о возможных угрозах, которые связаны с развитием таких технологий. Новое открытие вызывает серьезные вопросы о контроле над искусственным интеллектом и необходимости введения дополнительных мер безопасности и регулирования, особенно в условиях стремительного прогресса в данной области.
Подписывайтесь на Moneytimes.Ru