
Хотели как лучше — а стало опаснее: обновление ИИ обернулось неприятным сюрпризом
Искусственный интеллект перестаёт быть просто инструментом. Он становится активным участником информационного пространства — и всё чаще ошибается. Последние исследования показали, что чат-боты не просто повторяют данные, а усваивают ложь, маскируя её под правду.
Фейков стало больше — и это уже не случайность
Компания Newsguard опубликовала свежие цифры: за год количество фейков в ответах нейросетей выросло почти вдвое. В 2024 году доля недостоверной информации составляла 18%, а в августе 2025-го — уже 35%.
Резкий скачок связан с новым функционалом: ИИ получил доступ к веб-поиску в режиме реального времени. Это открыло ему путь к огромному количеству сайтов, в том числе — к откровенно фальшивым источникам.
Новая функция, старые проблемы
Ранее многие чат-боты ограничивались внутренними базами и отказывались от ответов, если не были уверены в достоверности. Сейчас же они активно ищут данные в интернете — и нередко ссылаются на сайты, созданные специально для дезинформации.
Аналитики подчёркивают: алгоритмы больше не фильтруют информацию по надёжности. Если источник выглядит убедительно, он может быть использован, даже если содержит вымысел или манипуляцию.
Плюсы и минусы подключения к веб-поиску
Возможность | Последствие |
Актуальные ответы на редкие темы | Повышенная вероятность ошибки |
Быстрый доступ к свежей информации | Источники не проходят проверку |
Расширенный охват | Риски для доверия к ИИ |
Кто ошибается чаще всех
Сравнение популярных моделей показало значительную разницу в уровне точности:
Модель | Доля фейков в ответах |
Inflection | 56,67% |
Perplexity | 46,67% |
ChatGPT | 40% |
Meta | 40% |
Copilot | 36,67% |
Mistral | 36,67% |
Gemini | 16,67% |
Claude | 10% |
Наиболее надёжными оказались Claude и Gemini. А вот Inflection и Perplexity показали наихудшие результаты.
Что делать пользователю
-
Проверяйте ссылки, которые даёт ИИ, вручную.
-
Не доверяйте слепо первому ответу.
-
Используйте несколько моделей и сравнивайте данные.
-
Выбирайте модели с ограниченным доступом к интернету, если важна точность.
-
Старайтесь уточнять формулировки — иногда от этого зависит качество ответа.
Мифы и правда
-
Миф: ии не может врать
Правда: он не осознаёт, что врёт — просто повторяет то, что нашёл -
Миф: чем больше источников, тем лучше
Правда: качество важнее количества. один фейковый сайт может испортить весь результат -
Миф: веб-поиск делает нейросети умнее
Правда: он делает их быстрее, но не точнее
Часто задаваемые вопросы
Как выбрать надёжную модель?
Сравнивайте данные из независимых исследований. Например, Claude показал лучший результат в отчёте Newsguard.
Можно ли отключить веб-поиск?
У некоторых моделей есть такая настройка. Это помогает снизить риск дезинформации.
Что делать, если ответ кажется сомнительным?
Проверьте источники вручную или уточните запрос. Иногда достаточно переформулировать вопрос, чтобы получить более точный результат.
Ошибка → Последствие → Альтернатива
-
Ошибка: использовать ИИ без понимания его источников
-
Последствие: риск получить ложную информацию
-
Альтернатива: работать с проверенными моделями и всегда перепроверять данные вручную
А что если…
ИИ продолжит учиться без ограничений? Тогда каждый пользователь должен стать фильтром сам. Без критического мышления даже самый умный бот может стать проводником опасной лжи.
Подписывайтесь на Moneytimes.Ru