Как алгоритмы становятся свидетелями предвзятости в бизнесе

Как алгоритмы становятся свидетелями предвзятости в бизнесе

Современные алгоритмы, регулирующие бизнес-процессы, всё чаще попадают под критику не из-за своих технологических возможностей, а из-за проявлений предвзятости. Когда решения принимает не человек, а машина, компании надеются на справедливость и эффективность. Однако на практике искусственный интеллект просто отражает и усугубляет существующие искажения, присутствующие в данных или неосознанно закладываемые разработчиками. Ответственность за такие недостатки, как юридическая, так и репутационная, в конечном итоге ложится на компании.

Причины предвзятости ИИ

Андрей Комиссаров, директор по ИИ корпорации «Синергия», делится своим мнением о том, что алгоритмы учатся на данных — либо заранее, на фиксированных выборках, либо во время работы на реальных данных. Если в исходной выборке присутствуют искажения, составленные, например, из соцсетей, они становятся частью модели. Он указывает на три основных фактора возникновения дискриминации: 1. Изначальное обучение на дискриминационных данных. 2. Дообучение на данных, поддерживающих нерепрезентативное поведение. 3. Ошибки в шаблонах, что может привести к шаблонизированным предвзятым решениям.

Отрицательные примеры и последствия

Генеральный директор Dbrain Алексей Хахунов подчеркивает, что предвзятости проистекают не от алгоритмов, а от данных, которые собраны от людей. Он отмечает, что такие проблемы трудно отследить заранее — замечаются они лишь тогда, когда кто-то сталкивается с ними. Скандалы, связанные с алгоритмической несправедливостью, становятся более шумными и дорогими для компаний, чем аналогичные инциденты с человеческим фактором.

Игорь Бедеров, директор департамента расследований T.Hunter, добавляет, что доскональное изучение данных может выявить системные предвзятости, однако нередко алгоритмы используют ложные корреляции, что может превратиться в скрытую дискриминацию. Например, в 2018 году компания Amazon отказалась от использования ИИ для найма после того, как алгоритм показал предвзятость против женщин-кандидатов.

Западный опыт и требования

В других странах случаи предвзятости ИИ уже становятся частой практикой. В 2022 году Meta согласилась выплатить компенсацию за расовую предвзятость в алгоритме рекламы жилья. Западные компании внедряют тесты для выявления скрытых предвзятостей, а в США вступил в силу закон, обязывающий публиковать отчёты независимых экспертов перед запуском ИИ-систем.

Тимофей Воронин из Центра научно-технологической политики МГУ считает, что основная причина предвзятости лежит в неправильном обучении ИИ. Многие подобные случаи становятся известными только после запуска продуктов, что подчеркивает важность постоянного мониторинга, пишет Дзен-канал "Коммерсантъ".

Источник: Коммерсантъ

Лента новостей