
Умный, да не слишком — как ИИ стал забывать простое ради сложного
Чем умнее становятся языковые модели, тем хуже они отвечают на простые вопросы — к такому выводу пришли специалисты, включая академика РАН Игоря Каляева. Он сообщил, что популярные ИИ-системы, включая ChatGPT, демонстрируют тревожную тенденцию: чем сложнее структура модели, тем сильнее падает качество её ответов на конкретные и прикладные задачи.
Каляев сравнил это с наукой, где невозможно быть экспертом сразу во всех областях. По его словам, рост "эрудированности" моделей сопровождается снижением их профессионализма. Такая "размытая специализация", по мнению учёного, способна привести к настоящей деградации искусственного интеллекта в повседневном применении.
Наблюдения подтверждаются и самой компанией OpenAI. После запуска новых моделей o3 и o4-mini в 2025 году разработчики признали: ИИ стал лучше справляться с креативными задачами, но чаще допускает логические ошибки и "галлюцинирует". Эксперты уже называют это явление "дебилизацией ИИ", предупреждая об угрозе неконтролируемого усложнения технологий.
Подписывайтесь на Moneytimes.Ru