
ИИ лечит вместо врачей? 14 % аннотаций в биомедицине созданы при участии ChatGPT
ИИ всё глубже проникает в научную биомедицину: каждое седьмое аннотированное исследование может быть написано с помощью ChatGPT.
Новое исследование показало, что искусственный интеллект активно используется для создания аннотаций к научным статьям в области биомедицины. По оценке исследователей, опубликованной на news. mit.edu, около 14 % текстов из базы PubMed, опубликованных в 2023 году, несут на себе яркие следы вмешательства языковых моделей, таких как ChatGPT и его аналоги.
Учёные проанализировали более миллиона аннотаций из крупнейшей биомедицинской библиотеки и использовали специализированное программное обеспечение для распознавания "почерка" нейросетей. Среди ключевых признаков — одинаковая структура предложений, предсказуемая лексика, малая стилистическая вариативность и другие лингвистические особенности, характерные для генеративного ИИ.
Рост применения ИИ вызывает беспокойство
Примечательно, что в январе 2023 года признаки ИИ-редактирования обнаруживались в 6 % публикаций, а к концу года доля таких работ выросла почти до 20 %. Наиболее активно ИИ использовался в таких областях, как офтальмология и радиология.
Авторы исследования подчеркивают: они не призывают к запрету применения ИИ, но настаивают на срочной необходимости регламентации и прозрачности. Использование языковых моделей должно открыто декларироваться, чтобы сохранить научную этику, отслеживаемость и доверие к данным.
"Речь не о том, чтобы запрещать, — поясняют исследователи, — а о том, чтобы честно обозначать роль ИИ в подготовке научных текстов. Особенно в аннотациях, которые часто читаются вместо всей статьи".
Опасения научного сообщества
Одной из главных тревог, связанных с внедрением ИИ в научные публикации, является риск ошибок и фальсификаций. Авторы предупреждают, что генеративные модели могут производить убедительные, но недостоверные тексты, особенно при отсутствии экспертной верификации.
"Если ИИ-генерация будет использоваться в аннотациях без контроля, это может привести к распространению ложной информации в медицине и науке — с реальными последствиями", — говорят эксперты.
В будущем, как предполагается, необходимо создать механизмы автоматического маркирования текстов, в которых применялся ИИ, а также выработать этические стандарты, включающие ответственность за достоверность и точность данных.
Подписывайтесь на Moneytimes.Ru