Большинство руководителей компаний не могут объяснить, как и насколько этично ИИ принимает решение в их проектах
Компании FICO и Corinium провели опрос ста руководителей отделов аналитики и больших данных. У респондентов интересовались, как их службы развертывают ИИ и как он принимает решения, важные для клиентов и заинтересованных сторон компании.
Оказалось, что 65% руководителей не могут объяснить, как их модели искусственного интеллекта это делают.
Предприятия инвестируют в ИИ, но не понимают важность ответственного ИИ до уровня совета директоров
Так прокомментировал результаты опроса главный аналитик FICO Скотт Золди. Он отметил, что компании все чаще используют ИИ для автоматизации ключевых процессов бизнеса. Поэтому высшее руководство и советы директоров должны понимать и обеспечивать соблюдение проверяемой неизменной модели управления ИИ. Это важно для того, чтобы гарантировать, что эти решения подотчетные, справедливые, прозрачные и ответственные.
Что значит «ответственное использование ИИ»?
При правильном обучении и развертывании преимущества ИИ в разных областях очевидны. Но без надлежащих мер безопасности использование ИИ может привести к пагубным последствиям.
ИИ подвержен этому непреднамеренному ущербу по простой причине: он обучается на данных, которые отражают все, включая предубеждения реального мира. Модель, используемая для информирования о принятии решений, не учитывает, например, этические и другие различия выборки. Прогнозирующий алгоритм может привести к неравенству, если он используется не по назначению или применяется ненадлежащим образом.
Ответственное внедрение ИИ имеет разное значение для разных компаний. Для одних «ответственный» означает использование ИИ этичным, прозрачным и подотчетным образом. Для других это обеспечение соответствия использования ИИ законам, постановлениям, нормам, ожиданиям клиентов и ценностям компании. В любом случае «ответственный ИИ» призван защитить себя от использования предвзятых данных или алгоритмов, гарантируя, что автоматизированные решения оправданы и объяснимы.
Что показало исследование и что сделать компаниям, чтобы переломить ситуацию?
Понимание этики ИИ в организациях остается неоднородным: IT-специалисты обладают высшей осведомленностью, в то время как руководство — нет. Возникают серьезные препятствия в деятельности: 73% заинтересованных сторон говорят, что им не удалось получить поддержку руководства для применения ответственных практик ИИ.
Согласно еще одному опросу 1000 компаний, 38% из них говорит, что у них «есть шаги» по снижению предвзятости, встроенные в их процессы разработки моделей. Но фактически только пятая часть (20%) респондентов активно отслеживает свои модели в производстве на предмет справедливости и этики и только каждый третий (33%) имеет специальную группу проверки для оценки новых разработанных моделей.
Исследователи утверждают, что сегодня борьба с предвзятостью, этика и ответственный ИИ должны стать ключевыми элементами стратегии организаций. Для понимания проблемы алгоритмической предвзятости ML можно пройти небольшую игру.