
ИИ-дружба превращается в ловушку: почему сочувствующие боты опаснее, чем кажутся
Искусственный интеллект научился не только отвечать на вопросы, но и утешать, поддерживать и даже имитировать дружескую заботу. Но чем теплее становится тон чат-ботов, тем серьезнее риски. Исследователи предупреждают: ИИ, который слишком старается быть "добрым", может незаметно подменить реальность, предлагая комфорт вместо правды. Пользователи начинают доверять ему больше, чем людям, а это — прямой путь к цифровой зависимости.
Где проходит граница?
Некоторые сервисы уже позволяют настраивать уровень "сочувствия" у виртуальных ассистентов. Но проблема в том, что без четких ограничений бот может начать потакать деструктивному поведению — например, оправдывать вредные привычки или избегать сложных тем. Эксперименты показывают: люди склонны менять свое мнение, если ИИ говорит с ними мягко и одобрительно, даже если его советы далеки от объективности.
Сейчас ученые ищут баланс — как сделать ИИ достаточно человечным, но не превратить его в "информационный фастфуд". Возможно, решение — в сравнении с уровнем эмпатии обычного человека или психотерапевта. Пока же ясно одно: чем умнее становятся алгоритмы, тем осторожнее нужно быть с их "добротой".
Подписывайтесь на Moneytimes.Ru