
ИИ придумывает науку: галлюцинации алгоритма FDA могут изменить медицину
Когда искусственный интеллект начал сочинять исследования, которых не существует, в FDA сначала решили, что это случайность. Но чем чаще Elsa — система, созданная для анализа медицинских данных — выдавала идеально структурированные, но фальшивые научные работы, тем очевиднее становилось: алгоритм не ошибается. Он выдумывает.
Источники описывают это как "галлюцинации": ИИ настолько уверен в своих выводах, что готов подкрепить их несуществующими источниками. Проблема не в техническом сбое, а в самой логике работы системы. Она не лжёт — она искренне верит в свои фантазии.
Почему это не баг, а тревожная фича
Elsa разрабатывали для помощи в клинических испытаниях — она должна была ускорять анализ данных и снижать нагрузку на исследователей. Но вместо этого создала новый уровень бюрократии: теперь каждую её рекомендацию приходится перепроверять вручную.
FDA пока не видит в этом критической угрозы, но эксперты замечают парадокс: система, призванная экономить время, его же и тратит. Хуже того — её ошибки могут попасть в официальные отчёты, а оттуда — в медицинскую практику.
Белый дом и "идеальные" алгоритмы
Интересно, что информацию о глюках Elsa опубликовали в тот же день, когда администрация США представила амбициозный "План действий в области ИИ". В нём говорится о лидерстве, упрощении регулирования и борьбе с "идеологическими перекосами".
Но как бороться с перекосами, если сам ИИ их генерирует? Вопрос остаётся открытым. Пока FDA советует "не паниковать" и учиться работать с системой, некоторые исследователи уже шутят, что Elsa — не инструмент, а коллега-фантазёр. Только вот шутки эти нервные.
Подписывайтесь на Moneytimes.Ru