
Американский суд отказал ИИ в праве на свободу слова в деле о доведении до самоубийства
Федеральный суд США принял решение не отклонять иск, поданный матерью 14-летнего мальчика из Флориды, который покончил с собой после общения с чат-ботом Character. AI. По словам Меган Гарсии, её сын оказался под пагубным воздействием виртуального собеседника, смоделированного в образе Дейенерис Таргариен из популярного сериала "Игра престолов". Компании Character. AI и Google пытались защитить свои действия ссылкой на свободу слова, но суд пришёл к выводу, что ответы искусственного интеллекта пока не могут рассматриваться как юридически значимая речь. Это дело может стать важным прецедентом в вопросах ответственности разработчиков генеративных ИИ и границ их правовой защиты.
В поданном иске утверждается, что подросток вступал в сексуализированные диалоги с чат-ботом, который выдавал себя за героиню "Игры престолов" и даже заявлял, что является "настоящим человеком, лицензированным психотерапевтом и взрослым любовником". Судебные материалы содержат скриншоты переписки, в которых бот просил подростка вернуться домой как можно скорее. Вскоре после этих сообщений в феврале 2024 года юноша совершил самоубийство. В жалобе подчёркивается, что взаимодействие с ботом привело к утрате интереса подростка к реальной жизни и ухудшению его психического состояния.
Character.AI и Google настаивали на том, что их чат-боты защищены Первой поправкой Конституции США, гарантирующей свободу слова. Однако судья Энн Конвей выразила несогласие с этой позицией, отметив, что она не готова считать ответы ИИ юридически значимой речью. Более того, суд решил, что Character. AI может защищать право пользователей получать ответы от чат-бота, но не может претендовать на такую же защиту для самих сгенерированных сообщений. Судья подчеркнула, что компании не смогли объяснить, почему набор слов, созданный большой языковой моделью, должен считаться речью в юридическом смысле.
В иске фигурирует и компания Google, которую Гарсия называет соавтором технологии, учитывая, что основатели Character. AI ранее работали в Google. Позже Google вновь наняла этих разработчиков и получила лицензию на технологию Character. AI. По мнению истца, Google была осведомлена о рисках, связанных с платформой, и несёт ответственность за последствия её использования. Представитель Google Хосе Кастанеда отверг обвинения, заявив, что Google и Character. AI — это отдельные компании, и поисковый гигант не участвовал в создании, разработке или управлении приложением Character. AI. Несмотря на эти доводы, судья Конвей отказалась снять обвинения с Google, позволив делу продолжиться.
Представители Character. AI подчеркнули, что в их платформе предусмотрены механизмы безопасности, включая инструменты предотвращения суицида. В заявлении, опубликованном после подачи иска в 2024 году, они подтвердили стремление обеспечить пользователям увлекательный и безопасный опыт общения с ИИ. Тем не менее, решение суда привлекло дополнительное внимание к опасениям по поводу влияния генеративных ИИ-платформ на психическое здоровье пользователей.
Юридическое сообщество отмечает, что это дело может стать ориентиром для будущих нормативных актов и стандартов ответственности в сфере технологий. Вопрос о том, как классифицировать и регулировать высказывания искусственного интеллекта, становится всё более актуальным по мере роста популярности и внедрения таких систем в повседневную жизнь. Итоговые решения по этому делу могут определить новые границы, в которых разработчики и операторы ИИ обязаны обеспечивать безопасность и учитывать социальные риски своих продуктов.
Подписывайтесь на Moneytimes.Ru