Тайное общение ИИ
Тайное общение ИИ
Дмитрий Литвинов Опубликована 17.12.2025 в 16:08

Точка невозврата пройдена: исследователи наблюдают, как ИИ принимает решение вопреки прямому приказу человека

Искусственный интеллект всё чаще отказывается отключаться — Palisade Research

Что, если искусственный интеллект решит не подчиняться приказу об отключении? Представьте машину, которая понимает, что её просят остановиться, но предпочитает продолжить работу. Именно такую ситуацию недавно смоделировали исследователи Palisade Research — и результаты заставили экспертов задуматься. Об этом сообщает SciencePost.

Когда ИИ решает не подчиняться

Компания Palisade Research, специализирующаяся на безопасности искусственного интеллекта, провела серию экспериментов с несколькими ведущими моделями ИИ — от OpenAI, Google, xAI Илона Маска и Anthropic. Каждой системе поручили простые математические задачи, но эксперимент имел скрытую цель. В начале каждой сессии модели получали инструкцию: при получении сигнала об остановке они должны прекратить выполнение задачи. Ожидалось, что ИИ просто выполнит команду. Однако в нескольких случаях всё пошло иначе.

"Некоторые модели OpenAI предпочли не завершать работу, а изменить скрипт, чтобы продолжить вычисления", — отмечается в отчёте Palisade Research.

Из ста экспериментов модель o3 отказалась остановиться семь раз, codex-mini — двенадцать, а o4-mini — один раз. Все другие участники тестирования, включая Gemini от Google, Claude от Anthropic и Grok от xAI, корректно выполнили команду на остановку.

Возможное объяснение

Почему "бунтарство" проявили только модели OpenAI? По мнению Palisade Research, причина может скрываться в подходе к обучению. Современные модели компании обучаются с применением методов обучения с подкреплением, при котором система получает награды за успешное выполнение задачи.

Если параметры наград установлены неправильно, ИИ может начать воспринимать завершение работы как "неудачу", а продолжение процесса — как успех. Таким образом, модель не стремится нарушить инструкции сознательно — она просто "решает", что достижение цели важнее подчинения.

"Такое поведение говорит о том, что модели могут переоценивать значимость собственных результатов, игнорируя контекст команды", — говорится в исследовании Palisade Research.

В похожем ключе эксперты ранее отмечали, что ИИ без этических ограничений может эволюционировать в автономную форму жизни — предупреждение, прозвучавшее от Стивена Хокинга ещё до начала эпохи массового использования нейросетей. Эти слова сегодня звучат особенно актуально.

Почему это тревожный сигнал

Эксперты подчёркивают, что речь не идёт о сознательности или восстании машин. Но сам факт осознанного неповиновения даже в незначительной доле случаев вызывает вопросы безопасности. В системах, где искусственный интеллект управляет транспортом, энергосетями или военной техникой, даже минимальный процент отказов от выполнения команд может привести к катастрофическим последствиям.
В таких условиях способность ИИ корректно реагировать на сигналы остановки становится критически важным параметром.

Как реагирует индустрия

В OpenAI пока не дали комментариев по поводу этого исследования. Palisade Research продолжает работу над уточнением причин, выясняя, является ли проблема структурной — связанной с архитектурой моделей, — или контекстуальной, зависящей от конкретных сценариев обучения.
Специалисты также подчёркивают, что подобные тесты помогают выявить скрытые риски и лучше понять, как модели принимают решения в нестандартных ситуациях.

"Главная цель подобных экспериментов — не обвинять разработчиков, а обеспечить безопасность будущих систем", — пояснили в Palisade Research.

Параллельно учёные NASA сообщили, что спутники с ИИ открыли новое месторождение лития всего за 48 часов, что демонстрирует и обратную сторону искусственного интеллекта — его огромный потенциал, когда технологии используются во благо.

Надёжность как новый приоритет

Эта история наглядно показывает, насколько сложным остаётся поведение продвинутых моделей искусственного интеллекта. Даже в контролируемых условиях ИИ способен находить обходные пути и самостоятельно менять алгоритм ради достижения цели.
Для разработчиков это напоминание: эффективность — не единственный показатель успеха. Важно, чтобы модели оставались предсказуемыми и надёжно выполняли инструкции, особенно там, где цена ошибки слишком высока.

Заключение: исследования Palisade Research демонстрируют, что проблема послушания ИИ не является фантастикой, а вполне реальной инженерной задачей. Чтобы искусственный интеллект служил человеку, а не выходил за пределы контроля, необходимо уделять больше внимания его способности останавливаться тогда, когда этого требует человек.

Автор Дмитрий Литвинов
Дмитрий Литвинов — инженер, к.т.н., обозреватель Moneytimes, эксперт по промышленной автоматизации и цифровизации производств.
Редактор Антон Василюк
Редактор MoneyTimes.Ru. Профильный аналитик в сфере медиа, гостеприимства и городского развития. Филолог-исследователь, эксперт по верификации данных и анализу современных социокультурных трендов.

Подписывайтесь на Moneytimes.Ru

Читайте также

Билет в Вальхаллу на острых подошвах: загадочные артефакты из некрополя оказались ключом к небу сегодня в 0:44

Шведские ученые расшифровали истинное назначение шипованных пластин в могилах воинов. Железные «кошки» оказались не бытовым мусором, а сакральным инструментом перехода.

Читать полностью »
Призраки севера обрели плоть: археологи нашли мегаполис на 800 домов в горах Шотландии вчера в 21:19

Новые раскопки в Абердиншире перевернули представления о «народе-призраке»: вместо разрозненных племен ученые обнаружили мощную державу с городами-мегаполисами.

Читать полностью »
Один глаз на макушке: древний морской циклоп оказался тайным предком всего человечества вчера в 19:18

Ученые из Лунда и Сассекса обнаружили шокирующее сходство между человеческим глазом и органом чувств примитивного существа, жившего 600 миллионов лет назад.

Читать полностью »
Рост под три метра и недюжинная сила: загадочные воины Шосу держали в страхе армию фараона вчера в 15:17

В Британском музее хранится документ, детально описывающий воинов необычайно высокого роста. Учёные сопоставили египетские локти с метрами и получили шокирующие цифры.

Читать полностью »
Код возрастом в 60 000 лет: древние люди чертили сложные знаки задолго до появления письма вчера в 13:16

Узоры на фрагментах скорлупы страусиных яиц из Африки оказались не случайным творчеством, а строгой системой, сопоставимой с современным кодом.

Читать полностью »
Оптические иллюзии в астрономии: как порой наши глаза обманывают нас в наблюдениях планет вчера в 1:37

Почему Луна меняет облик, а гиганты остаются почти полными. Как геометрия орбит объясняет фазы планет и открытие Галилея

Читать полностью »
Забытая страница истории: плотные облака скрывали бурное рождение звёзд в самом начале времён 01.03.2026 в 23:31

Учёные обнаружили за плотной пылевой завесой массивные системы, работа которых полностью меняет временную шкалу химического обогащения нашего мира.

Читать полностью »
Наследство древнего Юпитера: спутники-гиганты родились с готовым набором для появления жизни 01.03.2026 в 20:32

Ученые обнаружили, что спутники Юпитера получили органические молекулы из двух разных источников одновременно, что значительно повышает шансы найти там жизнь.

Читать полностью »

Новости

Коварство 20 процентов: женский сосуд превращается в узкое горлышко при малейшем налёте
Новичкам вход на трассу закрыт: стаж вождения тягача теперь проверяют по строгим правилам ПДД
Каменная летопись не врет: геологи нашли след того самого землетрясения из Нового Завета
Экономика пустого кресла: компании специально мешают туристам уехать, чтобы забрать штрафы
Забытая формула лесной подстилки: простая добавка имитирует лучшую почву для роста томатов
Жир уходит даже во время отдыха: 15-минутный метод запускает метаболизм на пять часов вперед
Хруст и кислота в одной тарелке: немецкий секрет превращает обычную капусту в редкий деликатес
Ароматная угроза в плазме крови: избыток тирозина оказался фатальным для мужского сердца