Верховный суд США
Верховный суд США
Дмитрий Толстенёв Опубликована сегодня в 1:52

Американский суд отказал ИИ в праве на свободу слова в деле о доведении до самоубийства

Федеральный суд США принял решение не отклонять иск, поданный матерью 14-летнего мальчика из Флориды, который покончил с собой после общения с чат-ботом Character. AI. По словам Меган Гарсии, её сын оказался под пагубным воздействием виртуального собеседника, смоделированного в образе Дейенерис Таргариен из популярного сериала "Игра престолов". Компании Character. AI и Google пытались защитить свои действия ссылкой на свободу слова, но суд пришёл к выводу, что ответы искусственного интеллекта пока не могут рассматриваться как юридически значимая речь. Это дело может стать важным прецедентом в вопросах ответственности разработчиков генеративных ИИ и границ их правовой защиты.

В поданном иске утверждается, что подросток вступал в сексуализированные диалоги с чат-ботом, который выдавал себя за героиню "Игры престолов" и даже заявлял, что является "настоящим человеком, лицензированным психотерапевтом и взрослым любовником". Судебные материалы содержат скриншоты переписки, в которых бот просил подростка вернуться домой как можно скорее. Вскоре после этих сообщений в феврале 2024 года юноша совершил самоубийство. В жалобе подчёркивается, что взаимодействие с ботом привело к утрате интереса подростка к реальной жизни и ухудшению его психического состояния.

Character.AI и Google настаивали на том, что их чат-боты защищены Первой поправкой Конституции США, гарантирующей свободу слова. Однако судья Энн Конвей выразила несогласие с этой позицией, отметив, что она не готова считать ответы ИИ юридически значимой речью. Более того, суд решил, что Character. AI может защищать право пользователей получать ответы от чат-бота, но не может претендовать на такую же защиту для самих сгенерированных сообщений. Судья подчеркнула, что компании не смогли объяснить, почему набор слов, созданный большой языковой моделью, должен считаться речью в юридическом смысле.

В иске фигурирует и компания Google, которую Гарсия называет соавтором технологии, учитывая, что основатели Character. AI ранее работали в Google. Позже Google вновь наняла этих разработчиков и получила лицензию на технологию Character. AI. По мнению истца, Google была осведомлена о рисках, связанных с платформой, и несёт ответственность за последствия её использования. Представитель Google Хосе Кастанеда отверг обвинения, заявив, что Google и Character. AI — это отдельные компании, и поисковый гигант не участвовал в создании, разработке или управлении приложением Character. AI. Несмотря на эти доводы, судья Конвей отказалась снять обвинения с Google, позволив делу продолжиться.

Представители Character. AI подчеркнули, что в их платформе предусмотрены механизмы безопасности, включая инструменты предотвращения суицида. В заявлении, опубликованном после подачи иска в 2024 году, они подтвердили стремление обеспечить пользователям увлекательный и безопасный опыт общения с ИИ. Тем не менее, решение суда привлекло дополнительное внимание к опасениям по поводу влияния генеративных ИИ-платформ на психическое здоровье пользователей.

Юридическое сообщество отмечает, что это дело может стать ориентиром для будущих нормативных актов и стандартов ответственности в сфере технологий. Вопрос о том, как классифицировать и регулировать высказывания искусственного интеллекта, становится всё более актуальным по мере роста популярности и внедрения таких систем в повседневную жизнь. Итоговые решения по этому делу могут определить новые границы, в которых разработчики и операторы ИИ обязаны обеспечивать безопасность и учитывать социальные риски своих продуктов.

Подписывайтесь на Moneytimes.Ru

Читайте также

Ученые раскрыли необычный способ выхода белка, связанного с болезнью Паркинсона сегодня в 2:29

Учёные обнаружили, что белок PARK7 при болезни Паркинсона выходит из клетки через аутофагию, что открывает новые возможности для терапии.

Читать полностью »
Почему откладывать будильник опасно для сердца и мозга — новое исследование сегодня в 2:28

Повторное откладывание будильника нарушает важные фазы сна, ухудшает работу мозга и повышает нагрузку на сердце, создавая иллюзию отдыха, но снижая качество сна.

Читать полностью »
Новый препарат лорундростат обещает революцию в лечении сложной гипертонии сегодня в 20:27

Новый препарат лорундростат значительно снижает артериальное давление у пациентов с трудно поддающейся гипертонией и может стать прорывом в лечении этого заболевания.

Читать полностью »
Российский профессор вошёл в топ учёных мира благодаря революционным методам в онкологии сегодня в 2:26

Российский профессор Антон Буздин вошёл в мировой рейтинг лучших учёных благодаря уникальным методам персонализированной терапии рака и инновационным разработкам в области молекулярной биологии.

Читать полностью »
Российские учёные раскрыли, как миграции опухолевых клеток усиливают рак груди сегодня в 2:25

Российские учёные из МФТИ обнаружили, что миграции опухолевых клеток через узкие пространства усиливают агрессивность рака груди и устойчивость к химиотерапии, что открывает новые возможности для терапии.

Читать полностью »
Учёные США нашли доказательства существования душ в космосе — сенсация или фантастика сегодня в 2:24

Американские учёные из университета Дьюка зафиксировали необычные электромагнитные явления в космосе, которые могут свидетельствовать о существовании душ вне Земли.

Читать полностью »
Учёные нашли простой способ съедать меньше: как острые специи влияют на аппетит сегодня в 2:23

Учёные из Университета Пенсильвании обнаружили, что небольшое количество острых специй замедляет приём пищи, снижая объём порций и калорийность рациона без ухудшения вкуса.

Читать полностью »
На глубине 1650 метров в Евразии нашли уникальную руду — это перевернет горнодобычу сегодня в 2:21

На Октябрьском месторождении в Красноярском крае вскрыта уникальная залежь медно-никелевой руды на рекордной глубине 1650 метров в самой глубокой шахте Евразии. Внедрение инновационных технологий позволит значительно повысить безопасность и эффективность добычи.

Читать полностью »