
ИИ отказался разбивать сердца: ChatGPT больше не советует, как пережить расставание
Компания OpenAI ввела новые ограничения для ChatGPT, запретив ему давать прямые рекомендации по поводу расставаний. Теперь, если пользователь спросит, стоит ли ему разрывать отношения или как пережить развод, бот предложит самостоятельно проанализировать ситуацию или обратиться к специалисту. Ранее ИИ мог выдавать чёткие, но не всегда корректные советы — например, рекомендовать "чистый разрыв" без учёта нюансов.
По словам представителей OpenAI, обновление направлено на снижение рисков, связанных с эмоциональной зависимостью от ИИ. Чат-бот не должен становиться заменой живому общению или профессиональной терапии. Вместо этого он теперь мягко подталкивает пользователей к более осознанному принятию решений.
ChatGPT напоминает о перерывах — и это неспроста
Ещё одно нововведение — система напоминаний о необходимости отдыха. Если диалог с ИИ затягивается на несколько часов, ChatGPT может предложить сделать паузу. Эта функция разработана при участии психологов, которые отмечают, что долгое общение с ботом иногда усугубляет чувство одиночества.
Эксперты объясняют: хотя ИИ создаёт иллюзию понимания, он не способен на настоящую эмпатию. Поэтому OpenAI стремится сделать взаимодействие с ChatGPT более безопасным — без риска эмоционального "выгорания" пользователей.
Кто стоит за этими изменениями?
Для доработки алгоритмов OpenAI привлекла более 90 специалистов по психическому здоровью из 30 стран. Их задача — помочь ИИ балансировать между поддержкой и нейтралитетом. Например, ChatGPT теперь избегает фраз вроде "Я понимаю твою боль", заменяя их на менее персонифицированные варианты.
Компания также планирует внедрить систему оценки эмоционального состояния пользователей по тексту запросов. Если ИИ распознаёт признаки депрессии или тревожности, он сможет предлагать контакты психологических служб.
Будущее ИИ: помощник, но не спаситель
Эти изменения — часть глобальной стратегии OpenAI по созданию ответственного искусственного интеллекта. Разработчики подчёркивают: ChatGPT должен помогать в сложных ситуациях, но не становиться "костылём" для эмоций. Возможно, именно такой подход позволит избежать сценариев, где люди начинают доверять алгоритмам больше, чем себе.
Подписывайтесь на Moneytimes.Ru