
Как искусственный интеллект на рабочих местах усиливает дискриминацию — тревожный отчет профессора
Профессор Лина Денчик из Data Justice Lab по заказу Конгресса британских профсоюзов подготовила масштабный отчет, который выявил глубокие проблемы неравенства и дискриминации, усугубляемые внедрением искусственного интеллекта на рабочих местах. Документ стал результатом тщательного анализа современных цифровых технологий и их влияния на различные категории работников. Конгресс профсоюзов Великобритании выразил серьезную обеспокоенность тем, что ИИ, который все активнее интегрируется в экономику и общественную жизнь, не только меняет характер труда, но и служит инструментом системного усиления социального неравенства.
В отчете подчеркнули, что наиболее уязвимыми оказываются сразу несколько групп работников. В первую очередь — пожилые люди, которые при использовании ИИ в процессах подбора и управления персоналом чаще всего оказываются дискриминированными. Примером таких практик служат случаи в США, когда компании, включая Amazon и T-Mobile, сознательно ограничивали доступ пожилых соискателей, нацеливая рекламу вакансий преимущественно на молодежь. Более того, автоматизированные системы часто исключают кандидатов, указывающих на дату получения образования, которая значительно раньше эпохи цифровых технологий, что еще больше усугубляет ситуацию.
В то же время молодые сотрудники, особенно те, кто работает на начальных и низкооплачиваемых позициях, также сталкиваются с серьезными трудностями. Несмотря на привычку к цифровым технологиям, они чаще всего вынуждены выполнять нестабильную работу, а оценка их труда с помощью ИИ нередко отражает предвзятость по признакам расы или пола. Например, компания Royal Mail внедряла алгоритмическое управление, что привело к перераспределению тяжелой нагрузки с пожилых работников на молодых. В США, как отмечается в исследовании, элитные вузы обучают студентов подстраиваться под алгоритмы ИИ при приеме на работу, что дает преимущество выпускникам дорогих университетов и создает новый барьер для социальных групп с меньшими ресурсами.
Отчет также выявил серьезные проблемы для женщин. ИИ закрепляет и усиливает гендерные стереотипы, предлагая им чаще менее оплачиваемые вакансии и ограничивая доступ к высокооплачиваемым позициям. Примером служит опыт Amazon, где алгоритмы при отборе резюме отдавали предпочтение мужчинам, и исследования Facebook, демонстрирующие гендерные и расовые предубеждения при показе объявлений о работе. Более того, автоматизированные системы не только фильтруют кандидатов, но и прогнозируют условия труда, включая размер заработной платы, которая женщинам часто предлагается ниже. Это происходит на фоне ускоренного сокращения рабочих мест в сферах, где традиционно занято большое число женщин — в розничной торговле, банковском секторе и колл-центрах.
Высококвалифицированные специалисты, в том числе молодые выпускники и женщины, также подвержены рискам, связанным с генеративным ИИ, который способен заменить их в выполнении сложных задач, требующих творческого подхода и аналитического мышления. По мнению экспертов МВФ, это может привести к серьезным изменениям в структуре занятости.
Особое внимание в отчете уделено дискриминации этнических меньшинств. На рабочих платформах и в системах найма применяются инструменты, которые не учитывают языковое и культурное многообразие, например, онлайн-сервис ParaEmpleo в Парагвае был доступен только на испанском и английском, игнорируя официальный язык гуарани, что создает дополнительные барьеры для большинства населения. Аналогично, технологии распознавания лиц и речи часто оказываются неэффективными для представителей этнических меньшинств, что усугубляет их положение.
Самой сильной дискриминации подвергаются люди с инвалидностью. Многие цифровые инструменты недоступны или несправедливо оценивают их способности, что приводит к увольнениям и невозможности участия в трудовом процессе наравне с другими. Алгоритмическое управление в таких компаниях, как Amazon, без учета индивидуальных ограничений лишает инвалидов справедливых условий и даже работы. Отдельные системы, например Hirevue, применяющие анализ мимики и голоса, оказываются неспособными объективно оценить людей с различными физическими и когнитивными особенностями, что фактически исключает их из конкурентной борьбы.
Подписывайтесь на Moneytimes.Ru