
Нейросети выдают себя без слов: как новый детектор раскладывает текст по косточкам
С каждым днём отличить текст, написанный человеком, от сгенерированного ИИ становится сложнее. ChatGPT и его аналоги уже пишут статьи, дипломы и даже научные работы — так убедительно, что даже эксперты порой не могут распознать подделку. Но теперь у нейросетей появился неожиданный противник: алгоритм, который не только определяет авторство, но и объясняет, почему он принял такое решение.
Раньше детекторы работали как "чёрный ящик" — выдавали вердикт без объяснений. Если система ошиблась, понять причину было невозможно. Новый метод, разработанный российскими исследователями, меняет правила игры. Он разбирает текст на мельчайшие компоненты, как часовой механизм, и показывает, какие именно фразы или конструкции выдали нейросеть. Например, финансовые тексты ИИ часто грешат многословием, а научные — перегруженным синтаксисом.
Что скрывают пробелы и лишние запятые
Учёные обнаружили, что некоторые пользователи намеренно искажают тексты, чтобы обмануть детекторы: добавляют лишние пробелы, артикли или нестандартные символы. Но и это не помогает — алгоритм распознаёт манипуляции. По словам разработчиков, их система не просто ставит диагноз "ИИ", но и предоставляет "медицинскую карту" текста: какие именно элементы вызвали подозрения.
Кому это нужно — кроме параноиков?
Пока одни спорят, этично ли использовать ИИ для написания дипломов, другие уже сталкиваются с последствиями. Журналы отзывают статьи, преподаватели — оценки, а читатели теряют доверие к контенту. Новый детектор может стать инструментом не только для проверки, но и для обучения: зная слабые места ИИ, можно улучшать языковые модели, делая их работу более прозрачной. Или, наоборот, — ещё более незаметной.
Подписывайтесь на Moneytimes.Ru