
Ошибки ИИ должны регулироваться как в авиации, считает эксперт
С ростом числа решений, принимаемых алгоритмами, встаёт вопрос — кто в ответе, если ИИ ошибается? Об этом рассказал Николай Турубар, директор по развитию digital-агентства Articul. Об этом сообщает Naked Science. Он отметил: определить виновного в таких случаях крайне сложно. В одних ситуациях — это разработчики, допустившие ошибки в обучении, в других — сам принцип работы модели остаётся "чёрным ящиком".
Эксперт привёл трагические примеры: неверные рекомендации онкобольным или случай, когда подросток покончил с собой после общения с чат-ботом. Алгоритмы лишены морали, совести и осознанности. Поэтому, по мнению Турубара, они не могут нести ответственность. Она ложится на людей. Но на каких — не всегда понятно.
Он предложил подход: развивать объяснимый ИИ и ввести обязательную сертификацию таких систем, как это делается в авиации и медицине. Он поддержал инициативы, как европейский AI Act и российский Кодекс этики ИИ. Это, считает эксперт, шаг к снижению рисков до тех пор, пока ошибки ИИ не станут необратимыми.
Подписывайтесь на Moneytimes.Ru