Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

6 признаков глупого человека 6 признаков глупого человека

Как понять, кого нужно избегать? Да и нужно ли на самом деле?

Psychologies
Пол Смит – о том, каково одевать Дэвида Боуи и зачем продавать пылесосы в магазине одежды Пол Смит – о том, каково одевать Дэвида Боуи и зачем продавать пылесосы в магазине одежды

50 лет в модном бизнесе глазами одного рыцаря

GQ
Мировой уровень Мировой уровень

Пять глобальных предпринимателей из России, известных далеко за пределами Рунета

Forbes
Если хочешь быть здоров Если хочешь быть здоров

Полезные подсказки: обустраиваем спортивный уголок для всей семьи в квартире

Лиза
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Шесть «сюрпризов» зимы Шесть «сюрпризов» зимы

Объясняем, как избежать вредного влияния центрального отопления в помещениях

Здоровье
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Не только архитектор Не только архитектор

Чем увлекались русские архитекторы прошлых веков, помимо возведения зданий?

Культура.РФ
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Мороз по коже: что мы чувствуем в присутствии опасных людей? Мороз по коже: что мы чувствуем в присутствии опасных людей?

Стоит ли отмахиваться от реакций своего тела на присутствие других людей?

Psychologies
Белые эмигранты Белые эмигранты

Не все в жизни белых медведей складывается гладко

Вокруг света
Слишком большой бизнес: зачем основатель «Красного & Белого» объединил сеть с конкурентами и что поменялось за два года Слишком большой бизнес: зачем основатель «Красного & Белого» объединил сеть с конкурентами и что поменялось за два года

Что изменило слияние «Красного & Белого» с сетями «Бристоль» и «Дикси»

VC.RU
Увидеть возможности Увидеть возможности

Малоизвестные истории о том, как общество реагирует на новые ситуации

Forbes
Технология блокчейн Технология блокчейн

То, что движет финансовой революцией сегодня

kiozk originals
Бренды образования Бренды образования

Как попасть в престижный университет и стоит ли туда стремиться?

Forbes
Богатые люди более аморальны? Вот, что об этом говорит наука Богатые люди более аморальны? Вот, что об этом говорит наука

Большие деньги развращают человека... или нет?

Популярная механика
Пример для подражания: Наталья Петушкова Пример для подражания: Наталья Петушкова

Руководитель центра разработки в компании НСПК берет инициативу в свои руки

Cosmopolitan
Из развалюхи в особняк: дома знаменитостей до начала карьеры и после Из развалюхи в особняк: дома знаменитостей до начала карьеры и после

Дома, в которых звезды жили до славы, и те, в которых они живут сейчас

Cosmopolitan
8 типичных ошибок при выборе белья, которые ты хоть раз совершала 8 типичных ошибок при выборе белья, которые ты хоть раз совершала

Нижнее белье нужно подбирать с умом

Cosmopolitan
5 послевоенных американских романов, на которые стоит обратить внимание: выбор Pollen fanzine 5 послевоенных американских романов, на которые стоит обратить внимание: выбор Pollen fanzine

Послевоенные романы, которые нужно перевести и издать

Esquire
5 лучших научно-фантастических романов о переносе сознания 5 лучших научно-фантастических романов о переносе сознания

Писатели-фантасты, которые экспериментировали с самой идеей сознания

Популярная механика
Энергетическая независимость: зачем России производить свои газовые турбины Энергетическая независимость: зачем России производить свои газовые турбины

Впервые в истории страны появится полностью своя газовая турбина

Inc.
Машину ударили соседней дверью на парковке. Что с этим делать? Машину ударили соседней дверью на парковке. Что с этим делать?

Какие царапины на кузове безвредны, а с какими придется ехать в сервис?

РБК
Гибель жены, заикание и аневризма: история Джо Байдена, нового президента США Гибель жены, заикание и аневризма: история Джо Байдена, нового президента США

Джо Байден – самый возрастной президент США

Cosmopolitan
Крайний север, одна река и три страны: путешествие по долине реки Паз. Фотоистория Крайний север, одна река и три страны: путешествие по долине реки Паз. Фотоистория

Паз — река, которую делят три страны

Esquire
«Единственный способ никого не раздражать — не делать ничего интересного». Даниэль Эк, Spotify, — о времени, вдохновении и музыкальном бизнесе «Единственный способ никого не раздражать — не делать ничего интересного». Даниэль Эк, Spotify, — о времени, вдохновении и музыкальном бизнесе

Дэниэль Эк о том, как шведская медлительность проявляется в культуре Spotify

Inc.
9 частей вашего тела, о которых вы наверняка ничего не знали 9 частей вашего тела, о которых вы наверняка ничего не знали

Уверены, что хорошо знаете все укромные уголки вашего тела?

Популярная механика
Цыганское счастье Алексея Никульникова Цыганское счастье Алексея Никульникова

Сорок лет назад на экраны вышел многосерийный фильм Александра Бланка «Цыган»

Караван историй
34 фирмы вместо одной: чем закончилось разделение нефтяного бизнеса Рокфеллера после 30 лет монополии 34 фирмы вместо одной: чем закончилось разделение нефтяного бизнеса Рокфеллера после 30 лет монополии

«Дочки» компании Рокфеллера лидируют на рынке нефти до сих пор

VC.RU
Как будто нам было мало: 10 лучших сериалов и фильмы ужасов 2020-го Как будто нам было мало: 10 лучших сериалов и фильмы ужасов 2020-го

Подборка самых жутких, леденящих кровь фильмов и сериалов 2020 года

Cosmopolitan
Открыть в приложении