Искусственный интеллект (ИИ) сейчас на волне хайпа и, в отличие от блокчейна, падения интереса к теме пока не наблюдается. Это значит, что нас продолжат бомбардировать удивительными сообщениями из мира ИИ – то вселять надежду на скорое всеобщее благоденствие, то пугать апокалипсисом восстания машин в духе Терминатора. Чем отличается нейросеть от искусственного интеллекта и как же разобраться: где маркетинговая чепуха, а где настоящие достижения и реальные угрозы?

Если вы попробуете самостоятельно разобраться и для начала откроете Википедию на статье, например, про перцептрон, то скорее всего вас ждет разочарование – вроде и по-русски написано, но ничего не понятно! Если только вам не повезло изучать математику в университете, но тогда и заметка вам не нужна.

Тем не менее, опираясь на здравый смысл, даже из беглого просмотра статей по ИИ в Википедии один полезный вывод можно сделать сразу. Искусственный интеллект и нейронные сети, однослойные и многослойные, сверточные и рекуррентные, обучение с учителем и без, глубокое и неглубокое – это все чертовски сложно! Значит, должно быть очень мало людей, которые действительно разбираются в предмете, и еще меньше тех, кто может применить математические абстракции на практике. Отсюда следует, что большинство «экспертов в области ИИ» на самом деле таковыми не являются, – их просто не может столько быть физически, поэтому весьма высок риск нарваться на шарлатанов или далеких от жизни романтиков (что может быть и хуже). Будьте осторожны, лапши для ушей по теме ИИ на рынке фантастически много!

Нейросеть и искусственный интеллект: разница есть, или это одно и то же?

Строго говоря, есть. Существует множество концепций и попыток реализации ИИ. Термин artificial intelligence (AI) был впервые предложен в 1956 году в Стэнфорде и относится к широкой области научных исследований по созданию разумных машин. Первый «подход к снаряду» по созданию искусственного интеллекта на основе нейронных сетей в 70-80-х годах XX века потерпел фиаско, в основном из-за недостаточности вычислительных мощностей. С тех пор попытки не прекращаются, но о полном успехе говорить рано.

Нейросеть – это не искусственный интеллект, но сейчас именно они захватили всеобщее внимание. Теперь если какой-то стартап или мегакорпорация говорит о применении в своих решениях искусственного интеллекта, то с вероятностью, очень близкой к 100%, они подразумевают нейросети.

Машинное обучение и нейронные сети: разница в контексте маркетинга неочевидна

Когда кто-то загадочным тоном произносит слова «machine learning», то он имеет в виду обучение нейронной сети на основе статистической выборки, то есть, слова «нейросеть» и «машинное обучение» в маркетинговом контексте можно считать синонимами.

Методов обучения и архитектур сетей разработано огромное количество, так что неспециалисту оценить преимущества того или иного подхода нет никакой возможности. Как же быть? Бизнесу следует держать в уме, что не все нейросети одинаково полезны для решения конкретных задач, поэтому к выбору партнера надо подходить очень тщательно – так же, как к выбору стоматолога, а то потом обойдется себе дороже.

А что же тогда deep learning? Глубокое обучение – это разновидность машинного обучения, причем четкой границы между ними не существует. Пишут, что глубокое обучение имитирует абстрактное мышление человека. Чушь, не верьте. Ибо механизм мышления достоверно не изучен. Никакой магии в глубоком обучении нет, работает просто статистика – но действительно, не всегда понятно, как обученная нейросеть приходит к своим выводам. И еще не факт, что все ее решения правильные.

О терминологии: «глубокое» или «глубинное»?

Говорит профессор ВШЭ, Константин Воронцов, один из настоящих экспертов в области ИИ: «Я считаю, что слово “глубинное” имеет в русском языке другой смысл: глубинным бывает залегание нефти, бомбометание, отложение и т. д. “Глубокое” – это более математичный термин, потому что суперпозиция функций может быть глубокой, но не глубинной, а нейронная сеть – это именно суперпозиция функций». Так что не путайте, говорите правильно!

Кстати, по-русски было бы логичнее говорить «обучение машин», что передает суть процесса – обучение нейросети. Но прижилось странное словосочетание «машинное обучение». Чем непонятнее, тем дороже.

Для наглядности вышесказанное можно представить в виде картинки: сначала возникло широкое научное направление «искусственный интеллект», потом внутри него появились искусственные нейронные сети (ИНС), которые ассоциировались с термином «машинное обучение». Как частный случай можно рассматривать нейронные сети глубокого обучения.

Котик или собачка? Применение сверточных нейросетей для компьютерного зрения

Компьютер Deep Blue стоимостью в $10 млн, в котором было 480 специализированных шахматных процессоров и 30 обычных, обыграл чемпиона мира Каспарова еще в 1997 году. Но простая задача, с которой справляется маленький ребенок, – отличить котика от собачки – долго была машинам не под силу. Пока на сцену не вышли сверточные нейронные сети.

Дело, конечно, не в котиках – хотя по количеству публикаций на эту тему может сложиться мнение, что распознавание котиков и есть главная задача современной науки. На самом деле программисты и математики решали проблему компьютерного зрения, чтобы научить машины «видеть» с помощью нейронных сетей. Это нужно в робототехнике, беспилотных автомобилях, медицинской диагностике, системах безопасности и много еще где. А котики – ну просто так повелось, это был один из первых примеров на распознавание образов.

Чтобы подогреть интерес разработчиков, с 2010 года проводится конкурс ILSVRC (ImageNet Large Scale Visual Recognition Challenge), в рамках которого различные программные продукты соревнуются в классификации и распознавании объектов и сцен в самой большой в мире базе аннотированных изображений ImageNet. (На август 2017 года в ней было 14 197 122 изображения, разбитых на 21 841 категорию.)

Первые два года дела шли ни шатко ни валко, хорошим результатом считалась ошибка распознавания 25%, что с научной стороны может и хорошо, но для практических целей применения нейронных сетей совершенно непригодно. Представьте себе беспилотное такси, которое в одном случае из четырех не понимает, дерево перед ним или человек. И вот в 2012 году неожиданно с двукратным отрывом от остальных участников побеждает система глубокого обучения на основе сверточной нейронной сети, которая смогла достичь 16% ошибки! В следующие годы ошибка упала до нескольких процентов.

Именно с этого момента и начался бум глубокого обучения.

Обманчивая простота применения нейронных сетей

«А давайте мы скормим ваши данные нейросети, она сама обучится и решит все ваши проблемы!» – так обычно говорят энтузиасты-неофиты, уверовавшие во всемогущество подхода deep learning. «Мы заменим роботами юристов, врачей, чиновников, водителей и так далее», – продолжают они.

Искусственный интеллект и нейронная сеть, как гениальный Шерлок Холмс, мгновенно находит решения самых разных задач, а туповатому доктору Ватсону только и остается восклицать: «Холмс! Но черт возьми, как?» Но нейро-Холмс не снисходит до объяснений, он просто выдает результат, который считает правильным по одному ему ведомым причинам.

И, как ни странно, люди верят. Первыми на эту иглу подсели водители, которые совсем перестали знать город и едут исключительно по навигатору. Это еще можно понять, поскольку цена ошибки невелика – ну, свернули с помощью нейронной сети не туда, сделаете лишний крюк и все равно как-то доедете до места назначения. А если вопрос касается буквально жизни и смерти? Возьмем хотя бы широко раскрученный проект IBM Watson for Oncology (он так назван отнюдь не в честь спутника знаменитого детектива, а в честь первого CEO компании IBM Томаса Уотсона).

Так вот, оказалось, что искусственный интеллект и нейронные сети тоже совершают врачебные ошибки. Одним из примеров является случай 65-летнего мужчины с диагнозом рак легкого, у которого также было сильное кровотечение. Watson предложил мужчине назначить химиотерапию и препарат «Бевацизумаб». Но препарат может привести к «тяжелому или смертельному кровотечению», согласно предупреждению, и поэтому не должен назначаться людям с сильным кровотечением. Хорошо, что это выявилось в процессе тестирования системы, а не в «боевой» эксплуатации. Ведь врачи – тоже люди, ничуть не лучше таксистов. Как только система из разряда диковины перейдет в повседневное использование, ей станут безоговорочно доверять. И кто тогда будет в ответе за вашу жизнь? Программа? На текущем этапе развития и применения нейронных сетей это слишком опасно.

Схемы организации нейронных сетей

Источник: Becoming Human, 2017

Возможно, именно поэтому мы наблюдаем поток новостей обуспешных примерах нейронных сетей в таких безопасных (и бесполезных в смысле развития цивилизации) областях, как маркетинг, оптимизация продаж, индустрия моды и так далее. Ну что за беда, если в виртуальной примерочной платье сядет не по фигуре какой-то покупательнице? Или якобы точно таргетированное персональное предложение, подготовленное с учетом 100-500 ваших лайков и комментариев в соцсети, выстрелит мимо цели? Никто же не пострадает.

Главное, что бизнес верит в deep learning и готов за это платить. Будем надеяться, что инвестиции пойдут на пользу индустрии и позволят создать действительно полезные ИИ-системы в области здравоохранения, беспилотников всех видов и мастей, роботов различного назначения.

Неудачный пример нейронной сети: урок Google Flu

В стародавние времена, в 2008 году, когда еще не было вокруг разговоров про нейронные сети и искусственный интеллект, а была только одна сплошная Big Data, компания Google запустила амбициозный проект Google Flu Trends (GFT), который, по уверениям разработчиков, мог обнаруживать наступление эпидемии гриппа в каком-то регионе на основе анализа поисковых запросов. На первый взгляд, все казалось логичным – почувствовав недомогание, люди должны искать в интернете информацию о лекарствах или о медицинских услугах.

Первоначально заявлялось, что прогнозы Google Flu Trends на 97% точнее по сравнению с данными официальной медицинской статистики. Затем GFT потерпел неудачу, и весьма эффектную, – ошибся с определением пика сезона гриппа 2013 года на 140%. Почти знаменитые 146%.

Источник: Search Engine Land, 2014

Почему это произошло? Если не вдаваться в мелкие подробности, то суть проста: вы не можете полагаться на данные, когда речь идет о действиях и мнениях людей. В голове у каждого из нас по 100 миллиардов нейронов, которые взаимодействуют непредсказуемым образом, и что наша нейросеть выдаст в очередной раз, никому неизвестно. Примитивные гипотезы типа «мы сейчас покажем клиенту нашу рекламу, потому что он лайкнул определенный пост» не работают.

Запомните: психология – не физика. Здесь сколько ученых, столько и теорий. Представьте, если бы у вас было двадцать методик расчета траектории ракеты для полета к Луне, дающих разные результаты, то какую бы вы выбрали? Сегодня нет сколько-нибудь стройной теории работы мозга и процесса мышления, так что все игры с данными о поведении людей являются не более чем спекуляциями.

Применение нейронных сетей: сферических коней в вакууме не существует

Это факт – в вакууме коней нет. Сферический конь – это абстракция, над которой почему-то принято смеяться. Но физика полна этими абстракциями – материальная точка, абсолютно черное тело, идеальный газ… Все физические теории оперируют такими отвлеченными понятиями и при этом весьма неплохо описывают реальный мир.

Нейросеть же, для обучения которой используются, допустим, фотографии лошадей, в принципе неспособна прийти к такой абстракции, как сферический конь. А человек может. Именно это отличает фундаментальную науку от статистических обобщений, которыми занимаются нейросети. Благодаря гениальным догадкам ученых, которые затем проходят экспериментальную проверку, мы получаем новые знания об окружающем мире.

Ноам Хомский так говорил в одном из интервью о невозможности научных открытий только при помощи статистических методов: «Просто работать с сырыми данными – вы никуда с этим не придете, и Галилей бы не пришел. Фактически, если к этому вернуться, в XVII веке людям, таким как Галилей и другим великим ученым, было непросто убедить Национальный научный фонд тех времен – аристократов, – в том что в их работах был смысл. Я имею в виду: зачем изучать, как шар катится по идеально ровной плоскости без трения, ведь их не существует… Важно помнить, что в когнитивной науке мы еще в до-Галилеевой эпохе, мы только начинаем делать открытия».

Представьте: если бы искусственный интеллект и нейросети были во времена Ньютона, и вместо того, чтобы размышлять об устройстве мироздания лежа под яблоней, сэр Исаак стал бы «скармливать» своей нейросетке видеозаписи падения разных предметов – перышка, шишки, чугунного ядра, куска материи, пылинки… Узнали бы мы тогда о законе всемирного тяготения? Вряд ли. Не верите? Вот описание одного эксперимента XVII века, которое приводит Ноам Хомский в том же интервью:

«Один из основных экспериментов в истории химии в 1640 году или около того, когда кто-то доказал, к удовольствию всего научного мира вплоть до Ньютона, что воду можно превратить в живую материю. Вот как они это делали — конечно, никто ничего не знал о фотосинтезе, — они брали кучу земли и нагревали ее так, чтобы вся вода испарялась. Землю взвешивали, вставляли в нее ветку ивы и поливали сверху водой, измерив объем этой воды. Когда ивовое дерево выросло, вы опять берете землю, выпариваете из нее воду — так же, как и раньше. Таким образом, вы показали, что вода может превратиться в дуб или что-то еще. Это эксперимент, и он вроде бы даже верный, но вы не знаете, что вы ищете. И это было неизвестно до тех пор, пока Пристли не открыл, что воздух — это компонент мира, в нем есть азот и так далее, и вы узнавали про фотосинтез и прочее. Тогда вы можете повторить эксперимент и понять, что происходит. Но вас легко может увести не в ту сторону эксперимент, который кажется успешным из-за того, что вы недостаточно хорошо понимаете, что вам следует искать. И вы еще больше уйдете не в ту сторону, если попробуете изучать рост деревьев так: просто взять массив данных о том, как деревья растут, скормить его мощному компьютеру, провести статистический анализ и получить аппроксимацию того, что произошло».

Стеклянный ящик вместо черного: объяснимый искусственный интеллект (XAI)

Когда эйфория от первых успехов искусственного интеллекта и нейронных сетей прошла, заказчики и регуляторы стали задаваться вопросом – а как эта штука на самом деле принимает решения? Почему одному заемщику она утверждает кредит, а другому отказывает? Большинство систем, построенных на технологии глубокого обучения, работают по принципу «черного ящика», когда их разработчики, радостно улыбаясь, говорят, что они сами не знают, что там происходит внутри.

Но позвольте, а как же быть с тем же GDPR (регламент по защите данных в ЕС), который требует прозрачности в использовании компаниями персональных данных? Уже известно много случаев, когда алгоритмы принимают предвзятые решения, потому что обучающая выборка была сформирована некорректно.

Объяснимый ИИ, который также называют XAI или прозрачный ИИ, представляет собой систему, в которой люди могут с легкостью понять действия ИИ. Цель – добиться ясного понимания того, как и почему ИИ принимает те или иные решения. Несомненно, появление объяснимого ИИ – шаг в правильном направлении, поскольку он делает технологию применения нейросетей более прозрачной.

Пожалуй, объяснимый ИИ будет главным трендом 2019 года – заказчикам нужен не просто результат, но еще и внятное объяснение, как он был получен и почему он правильный. Потому что ответственность в конечном счете лежит на людях, а не на алгоритмах.