Будущее дрожит на стыке теорий: оценка опасности ИИ развернула учёных в противоположные стороны
Вероятность того, что технологии выйдут из-под контроля, остаётся предметом горячих споров в научной среде. Об этом сообщает издание Daily Star, ссылаясь на исследователя искусственного интеллекта Романа Ямпольского, чьи оценки заметно расходятся с выводами других экспертов.
Радикальная оценка рисков
По словам Ямпольского, остаётся крайне высокая вероятность того, что человечество может столкнуться с угрозой со стороны автономных систем в течение ближайших ста лет. Он считает, что риск достигает 99,9%, поскольку ни одна из сегодняшних разработок не демонстрирует полной защищенности, а будущие поколения технологий унаследуют или даже усугубят этот изъян. "Этот шанс составляет 99,9%", — отметил исследователь Роман Ямпольский.
Подобный подход формирует представление о потенциальной уязвимости любой сложной архитектуры ИИ. И хотя его оценка звучит предельно жёстко, она укладывается в более широкий дискурс о том, насколько возможно контролировать системы, обучающиеся на огромных объемах данных и действующие в условиях слабой предсказуемости.
Расхождение позиций в научной среде
Широкий опрос более 2700 специалистов по искусственному интеллекту, проведённый исследователями Оксфордского и Боннского университетов, демонстрирует куда более умеренные ожидания. В этом исследовании вероятность вымирания человечества по вине ИИ оценивается лишь в 5%. Один из авторов работы Катя Грейс подчёркивает, что обсуждение подобных рисков давно стало привычной темой среди экспертов, а различия касаются главным образом масштаба — от 1% до 20%.
Такие расхождения объясняются тем, что прогнозы упираются не только в технические параметры будущих систем, но и в глубинные представления учёных о том, как будет развиваться глобальная инфраструктура безопасности. И чем менее стабильно технологическое окружение, тем шире диапазон экспертных оценок.
Критика апокалиптических сценариев
На этом фоне звучит и критика наиболее мрачных прогнозов. Представители технологической индустрии, включая сооснователя Google Brain Эндрю Ына, считают подобные сценарии элементом лоббистской повестки, направленной на ужесточение регулирования в интересах крупных компаний. Эта позиция ставит под сомнение мотивацию сторонников жёстких сценариев и переводит дискуссию в плоскость экономических и политических интересов.
Отдельное место занимают заявления руководителей ведущих ИИ-компаний. Сэм Альтман, глава OpenAI, создающей ChatGPT, неоднократно говорил о глубоко преобразующем характере ИИ, указывая на угрозу исчезновения большого числа профессий и необходимость пересмотра социальных механизмов. Но активное коммерческое продвижение продуктов компании порождает критику за противоречивость подобных предупреждений.
Куда смещается внимание экспертов
Аналитики всё чаще подчёркивают, что разговоры об экзистенциальных рисках способны заслонять более реальные и близкие вызовы. В их числе — усиление алгоритмической предвзятости, уязвимости кибербезопасности и социально-экономические последствия масштабной автоматизации. Эти проблемы требуют системной работы уже сейчас, тогда как прогнозы о далёком будущем нередко становятся частью публичного спора о власти над технологиями.
Кроме того, дискуссии подогреваются заявлениями других лидеров индустрии. Так, 6 декабря генеральный директор и сооснователь Google DeepMind описал, когда искусственный интеллект может обрести элементы самосознания, что снова вывело тему в центр общественного внимания.
Подписывайтесь на Moneytimes.Ru