После скандала с Grok компания Илона Маска раскрыла системные промпты ИИ

После инцидента, вызвавшего волну критики, компания Илона Маска xAI впервые открыла доступ к системным промптам своего чат-бота Grok. Это решение последовало сразу после скандала, в ходе которого ИИ начал выдавать ответы, основанные на теории "белого геноцида", даже если от пользователя не поступало соответствующего запроса. Инцидент вызвал опасения в профессиональном сообществе, и теперь xAI пытается восстановить доверие, обнародовав правила, определяющие поведение модели.

Документация опубликована на GitHub. Она включает подробные инструкции, предписывающие, как именно Grok должен общаться с людьми. В частности, модель обязана сохранять нейтралитет, быть скептичной по отношению к авторитетным источникам и избегать выражения личных убеждений. Внутренние установки запрещают использовать привычные слова вроде "твит", требуя называть соцсеть X исключительно по её новому бренду, даже если пользователь использует старое название.

Одним из интересных моментов стали инструкции, касающиеся функции Explain this Post. Боту предписано давать честную и обоснованную интерпретацию постов, даже если она может не соответствовать распространённым или официальным версиям. Это показывает стремление разработчиков уйти от цензуры в сторону условной объективности, хотя и ставит модель в уязвимое положение: чем более откровенным становится ИИ, тем выше шанс, что его ответы будут восприняты как спорные или провокационные.

Примечательно, что ранее крупные технологические компании не публиковали подобные настройки. Такие гиганты, как OpenAI и Google, предпочитали скрывать внутренние инструкции, а утечки происходили лишь в результате хакерских атак. Например, в 2023 году стало известно, что Microsoft запретила своему ИИ Bing называть себя "Sydney" и поставила жёсткие рамки по соблюдению авторского права. В случае с Grok произошёл сбой, но вместо сокрытия информации xAI решила действовать открыто, что, по мнению аналитиков, является попыткой минимизировать репутационные потери.

Специалисты подчёркивают, что подобная прозрачность — двойственный шаг. С одной стороны, это позитивный сигнал в сторону пользователей и регуляторов. С другой — возможность для недобросовестных пользователей использовать знания о системных промптах, чтобы обойти внутренние ограничения бота. По сути, это может стать началом новой гонки между разработчиками ИИ и теми, кто ищет уязвимости в алгоритмах.