Искусственный интеллект может оказаться в арьергарде четвертой промышленной революции. Об этом на саммите GMIS 2019 сказал вице-президент HIT Robot Group Чэнь Цюлян. Это значит, что ИИ будет все чаще использоваться на производстве и в бизнесе, а судьбы сотен миллионов людей окажутся в зависимости от успехов и решений машины. А ведь ИИ может не только решать проблемы, но и создавать их, принимая человеческие слабости и ошибки за норму поведения.

Яблоко от яблони

Давайте вспомним, как работает искусственный интеллект (ИИ, AI). Мы уже писали о разных аспектах обучения ИИ и его функционирования. Но если кратко, то любой искусственный разум — это специализированное решение, эффективность которого зависит от качества обучения. Проще говоря, если необходимо, чтобы ИИ качественно распознавал болезни или узнавал людей на фотографиях, — его нужно обучить. И в этом заключается главная проблема, которая в буквальном смысле может обернуться проблемой для бизнеса. Случается, что во время обучения ИИ делает не всегда верные выводы.Источник: eSputnik

«Сегодня, когда проекты на основе искусственного интеллекта растут как на дрожжах, этические проблемы встают еще острее. Одна из них — расизм. ИИ может быть предвзятым и иметь различные bias. Ведь он обучается на данных, в которых отражается текущий bias (здесь — приоритет, прим. редакции) решений, которые принимают люди. Например, чат-бот Тэй (Taу) от компании Microsoft, запущенный 23 марта 2016 года, всего за сутки превратился из миролюбивого собеседника в настоящего нациста. Расистским высказываниям и оскорблениям его научили собеседники», — рассказывает Максим Годзи, управляющий партнер Retentioneering.

По словам эксперта, это не единственный пример. Еще один известный кейс, когда с помощью ИИ компания Northpointe создала ассистента судьи в США, который мог бы помогать принимать справедливые решения. «Программа на основе имеющихся данных должна была выявить «показатель оценки риска».  Данный алгоритм с существенно большей вероятностью предсказывал рецидив и оставлял за решеткой темнокожих американцев, особенно тех, кто проживал в районах с преимущественной долей темнокожих американцев. Только 20% подозреваемых, по которым программа определила высокий риск совершения преступлений, действительно совершили его в течение нескольких лет», — сказал Максим Годзи.

Известно, что программа обучалась на конкретных судебных решениях. Однако, как мы знаем, люди, которые работают судьями, руководствуются не только объективными данными из состава преступления и истории подсудимого. На решения часто влияет время дня, усталость, а также время суток — до или после обеда рассматривается дело.

Источник: Microsoft

«Поэтому AI может наследовать необъективность из данных, на которых он натренирован, но при этом мы хотя бы имеем контроль над тем, какие факторы он принимает в расчет. В то время как человек может неконтролируемо переносить свои личные отношения и эмоции на предмет своего анализа», — резюмирует эксперт.

Может ли ИИ быть объективным

Старший научный сотрудник по машинному обучению в Avast Галина Альперович считает, что может. Но есть одно «но». «Для успешной работы искусственного интеллекта машины должны пользоваться уже накопленными данными, чтобы они могли учиться принимать решения на основе предыдущего опыта. Это означает, что алгоритмы машинного обучения основаны на данных и практиках, которые существуют в нашем обществе. Так что искусственный интеллект опирается на весь существующий опыт, который включает в себя и некие предубеждения, которые есть в общественном сознании. Следовательно, ИИ учится в том числе и на человеческих предрассудках», — говорит она. 

Источник: TAdviser, 2019

Из-за сложностей с обучением был забракован чат-бот Тэй. Ошибки в обучении провалили еще несколько проектов. Например,  Amazon создал алгоритм на основе искусственного интеллекта чтобы автоматизировать систему поиска и набора кадров на работу. Но все пошло не так, как ожидалось, система стала отказываться от услуг женщин. «В компании хотели получить инструмент, который выберет пять лучших резюме из ста, чтобы потом нанять этих людей», — рассказал один из собеседников Reuters. Изначальная задумка предполагала, что система сама оценит резюме и мотивационные письма соискателей работы, а затем присвоит им рейтинг от одной до пяти звездочек.

«Руководство буквально хотело, чтобы мы давали алгоритму 100 резюме, из которых он бы составил топ-5, и компания впоследствии могла бы нанять этих людей, — заявил Reuters один из программистов. — Однако дальше стало понятно, что созданная система не придерживается принципа гендерной нейтральности, поскольку большинство резюме за предыдущие годы в Amazon присылали мужчины. Таким образом, алгоритм начал отбраковывать заявки со словом “женщины”». 

Впоследствии программу отредактировали так, чтобы искусственный интеллект не маркировал это слово и его производные как нечто негативное, но это не очень помогло. Amazon признал программу ненадежной, и проект закрыли, однако, по информации Reuters, еще какое-то время отдел кадров принимал во внимание рекомендации алгоритма, хотя и не основывал на них свое окончательное решение», — говорит ведущий специалист data science Bell Integrator Иван Прошин.

Почему так происходит

При машинном обучении программист предоставляет искусственному интеллекту первоначальный набор данных. Например, ИИ распознавания лиц получает много изображений, некоторые из которых помечены как «лица», а некоторые — как «не лица». Со временем ИИ придумывает собственные шаблоны и алгоритмы, позволяющие ему выделять лицо на изображении. 

Но что будет, если начальные лица, которые получает ИИ, — это преимущественно мужские лица белых людей? Впоследствии искусственный интеллект может решить, что быть белым — это необходимое условие, и станет отвергать лица с черным цветом кожи. При этом системы видеораспознавания лиц сегодня работают в метро, на вокзалах, в аэропортах. Какой будет цена их ошибки?

Сегодня при разработке сложных схем обучения ИИ можно получить далеко не те результаты, которые ожидаются изначально. Беда в том, что методологическая база для обучения ИИ не всегда является качественной. Автоматизированные исследования контента, генерируемого пользователями Сети, зачастую приводят к неправильным выводам и результатам. Это означает, что для качественного обучения ИИ нельзя быстро собрать массив данных из открытых источников. Даже для того, чтобы научить складского робота распознавать мятую коробку, необходимо вручную создать качественную базу изображений, на что уйдет несколько месяцев.

Нет свободы от предрассудков

Поскольку бизнес все больше рассчитывает на ИИ, крайне важно помнить, что программа может обладать человеческими слабостями своих создателей. Следовательно, технические компании должны стремиться к тому, чтобы стать более разнообразными при выборке информации для системы и быть готовыми к критическому анализу данных своего ИИ.

Все сервисы с использованием искусственного интеллекта, которые созданы для категоризации личностных особенностей, столкнутся при обучении с предубеждениями человека — ведь все мы по природе своей субъективны. Поэтому ИИ можно использовать при распознавании коробок на складе. Но прогнозирование, оценка возможностей конкретного человека — в этой области предстоит научиться исключать предвзятость из обучающих выборок.