
Эксперимент с ИИ: даже простая социальная сеть становится полем для конфликтов
Социальные сети невозможно сделать полностью безопасными и свободными от конфликтов. К такому выводу пришли учёные из Амстердамского университета, проведя серию экспериментов с виртуальными пользователями на основе GPT-4o mini. Результаты исследования опубликованы на сервере препринтов arXiv.
В эксперименте приняли участие 500 искусственных агентов, которым на основе данных Американского национального электорального исследования были присвоены различные политические взгляды. Их отправили взаимодействовать в упрощённую социальную сеть, где не было рекламы и алгоритмов рекомендаций. Несмотря на это, агенты чаще подписывались на единомышленников, а радикально настроенные пользователи быстро набирали популярность и делали больше репостов. Внимание аудитории смещалось в сторону поляризованного контента.
Ранее авторы пытались изменить алгоритмы, чтобы уменьшить количество конфликтов, но новые данные показали, что причина кроется глубже.
"Мы создали максимально простую сеть — и всё равно столкнулись с токсичностью. Это заложено в самой системе постов и подписок", — отметил социолог Петтер Тёрнберг.
Команда протестировала несколько мер: ленту в хронологическом порядке, снижение видимости вирусного контента, скрытие количества подписчиков, продвижение противоположных взглядов. Однако результат оказался минимальным: межпартийное взаимодействие выросло всего на 6%, а популярность радикалов не снизилась. Некоторые меры даже усугубили ситуацию.
По словам Джесс Мэддокс из Университета Джорджии, социальные сети изначально устроены таким образом, чтобы усиливать худшие проявления человеческого поведения. Ученые пришли к выводу, что проблему нельзя решить корректировкой алгоритмов — нужен новый подход к самой структуре онлайн-общения.
Подписывайтесь на Moneytimes.Ru