
Платон бы удивился: модель обошла древнюю логику — и настаивала на своём даже после подсказок
В Кембриджском университете решили испытать ChatGPT-4 на задаче, известной ещё со времён античности. Речь идёт об "удвоении квадрата" — испытании, которому около 2400 лет. Сократ в диалоге Платона решал её просто: нужно построить новый квадрат на диагонали исходного.
Однако искусственный интеллект пошёл другим путём. Вместо геометрии он обратился к алгебре, что для античности было чуждым приёмом.
Почему исследователи удивились
Надав Марко и Андреас Стилианидес ожидали, что модель воспроизведёт привычный "школьный" ответ. Ведь корпус текстов, на которых обучен ИИ, огромен, и такие задачи там встречаются. Но ChatGPT предпочёл привычные для него алгебраические рассуждения.
По словам авторов, это поведение похоже на действия студентов: когда они не знают прямого пути, они ищут решение в рамках уже освоенных методов.
Поведение модели в диалоге
Даже когда исследователи пытались вести модель по следам платоновского диалога и вставляли "ловушки", ChatGPT упрямо возвращался к алгебре. Лишь после прямой критики "неточности" он согласился предложить геометрическое построение.
В других вариациях задачи, например с удвоением прямоугольника или треугольника, ситуация повторялась. В одном случае модель и вовсе заявила, что геометрическое решение невозможно.
Плюсы и минусы
Плюсы | Минусы |
ИИ демонстрирует гибкость мышления | Ошибки и упорство в неверной стратегии |
Поведение похоже на студентов, что полезно в обучении | Игнорирование классического геометрического метода |
Эксперимент развивает критическое мышление у людей | Требуется внешняя коррекция для выхода за пределы привычных схем |
Сравнение
Подход | Особенности | Итог |
Геометрический (Сократ) | Строительство квадрата на диагонали | Простое и изящное решение |
Алгебраический (ChatGPT) | Формулы и вычисления | Ошибки, уход от исторического контекста |
Советы шаг за шагом
-
Использовать ИИ в образовании не как "истину в последней инстанции", а как собеседника для проверки идей.
-
Давать студентам примеры ошибок ИИ, чтобы учить их критически анализировать выводы.
-
Включать подсказки и корректировки в диалог, чтобы направлять модель.
-
Сравнивать ответы ИИ с историческими или классическими решениями для тренировки мышления.
Мифы и правда
-
Миф: искусственный интеллект всегда решает задачи быстрее и точнее человека.
Правда: в экспериментах он нередко упирается в ошибки и знакомые схемы. -
Миф: древние задачи больше не актуальны.
Правда: они помогают проверять, как ИИ мыслит и насколько он гибок. -
Миф: ChatGPT не способен менять стратегию.
Правда: после критики он всё же смог перейти к геометрии.
FAQ
Зачем проверяли задачу Платона на ИИ?
Чтобы понять, как искусственный интеллект работает с классическими проблемами и насколько он гибок в выборе методов.
Почему ChatGPT выбрал алгебру?
Модель тяготеет к современным привычным стратегиям, даже если они не соответствуют контексту.
Какой вывод сделали исследователи?
ИИ может вести себя как ученик: ошибаться, упираться в известные методы, но при этом развивать у собеседника критическое мышление.
Ошибка → Последствие → Альтернатива
-
Ошибка: ИИ полагается только на алгебру в старой геометрической задаче.
-
Последствие: решение получается неверным или неполным.
-
Альтернатива: направлять модель через подсказки, чтобы она открывала новые способы рассуждений.
А что если…
А что если ИИ научится сразу распознавать контекст задачи и подбирать соответствующий метод? Тогда такие диалоги смогут не только проверять студента, но и обучать его через более точные примеры, сохраняя при этом элемент неожиданности.
Подписывайтесь на Moneytimes.Ru