Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

«Черкизово». Наследники. Алтай «Черкизово». Наследники. Алтай

Почему Игорь Бабаев отдал весь свой бизнес сыновьям

Forbes
Чтобы мечты сбывались Чтобы мечты сбывались

Чтобы изменить жизнь, нужно правильно ставить цели и формулировать желания

Добрые советы
Груз платформы Груз платформы

Павел Дуров: бизнесмен, который бросил вызов мировому господству доллара

Forbes
Да ты «Псих»: каким получился первый сериал Федора Бондарчука Да ты «Псих»: каким получился первый сериал Федора Бондарчука

Какой жизнь предстает в сериале «Псих» от Федора Бондарчука

РБК
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
5 приятных фактов про боль 5 приятных фактов про боль

Безболезненно о наболевшем

Maxim
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Древнее индейское проклятие продолжает убивать президентов США. Джо Байден в группе риска! Древнее индейское проклятие продолжает убивать президентов США. Джо Байден в группе риска!

Это не бред сивых уфологов с РЕН ТВ, а исторически задокументированная история.

Maxim
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Глицин сформировался в условиях темного межзвездного облака Глицин сформировался в условиях темного межзвездного облака

Это говорит о более широкой распространенности данной аминокислоты во вселенной

N+1
Помоги мне Помоги мне

Фильм «Доктор Лиза» основан на дневниках Елизаветы Глинки

GQ
Вечная юность. История и тест лучшей самодельной машины СССР Вечная юность. История и тест лучшей самодельной машины СССР

Работы над этим автомобилем начались полвека назад

РБК
Чёрный передел: версия 1939 года Чёрный передел: версия 1939 года

Секретный протокол к Пакту о ненападении

Дилетант
На вилле в Помпеях нашли останки двух человек. Они пытались спрятаться в подземном портике На вилле в Помпеях нашли останки двух человек. Они пытались спрятаться в подземном портике

В Помпеях нашли тела жертв извержения Везувия 79 года

N+1
Из тюрьмы в бочку Из тюрьмы в бочку

Куда делись миллиарды Сергея Полонского, да и были ли они?

Forbes
Изабель Юппер: «Думаю, феминистская повестка в кино – это очень хорошо» Изабель Юппер: «Думаю, феминистская повестка в кино – это очень хорошо»

Изабель Юппер примерила амплуа главы криминальной империи

Grazia
Почему мясо нельзя с хлебом, а кофе с молоком, или Что мешает усвоению питательных веществ? Почему мясо нельзя с хлебом, а кофе с молоком, или Что мешает усвоению питательных веществ?

Как избежать дефицитных состояний будущей маме?

9 месяцев
Что такое edge computing и почему все внезапно заговорили о «туманных вычислениях» Что такое edge computing и почему все внезапно заговорили о «туманных вычислениях»

И стало облако туманом

Maxim
Как помочь подростку найти дело жизни? Как помочь подростку найти дело жизни?

Как поставить себя на место подростка и помочь ему выбрать профессию

Psychologies
«Современное искусство вместо наркотиков для расширения сознания»: что и зачем покупают российские коллекционеры «Современное искусство вместо наркотиков для расширения сознания»: что и зачем покупают российские коллекционеры

Почему художник должен страдать и зачем покупать целую выставку

Forbes
«Я подумаю об этом завтра» «Я подумаю об этом завтра»

Ирина Прохорова — об ответственности перед фамилией и желании стать волонтером

OK!
Египтологи разгадали тайну мумий, найденных еще в 1615 году Египтологи разгадали тайну мумий, найденных еще в 1615 году

Даже спустя тысячи лет тайны Древнего Египта продолжают волновать человечества

Популярная механика
Януш Леон Вишневский: Нельзя войти в одну и ту же эмоциональную реку дважды Януш Леон Вишневский: Нельзя войти в одну и ту же эмоциональную реку дважды

Интервью с Янушем Леоном Вишневским

СНОБ
Сергей Лебедев: Дебютант. Первая глава романа об изобретателе смертельного советского яда Сергей Лебедев: Дебютант. Первая глава романа об изобретателе смертельного советского яда

Первая глава из книги о создателе смертельного советского яда «Дебютант»

СНОБ
Как пробежать марафон. Инструкция Как пробежать марафон. Инструкция

Бывший спецназовец рассказывает, что делать, если вы захотели пробежать марафон

РБК
Платье-миди: главные опасности модели и с чем ее носить, чтобы выглядеть стильно Платье-миди: главные опасности модели и с чем ее носить, чтобы выглядеть стильно

Собираем стильные образы с платьем-миди в главной роли

Cosmopolitan
Биомешок или искуственная матка: заменят ли технологии женское тело Биомешок или искуственная матка: заменят ли технологии женское тело

Какими будут секс, еда, деторождение и смерть в ближайшем будущем

Forbes
Праздник к нам приходит Праздник к нам приходит

Светлана Лобода откровенно рассказала о том, как ей удается быть праздником

Cosmopolitan
Старина DJ Groove: ничего положительного из локдауна я не вынес Старина DJ Groove: ничего положительного из локдауна я не вынес

Playboy задал 25 коротких вопросов легендарному Груву

Playboy
Профессор Гарвардской школы бизнеса назвал самые большие ошибки компаний, переходящих на удаленку Профессор Гарвардской школы бизнеса назвал самые большие ошибки компаний, переходящих на удаленку

Ошибки, которые совершают компании, которые переходят на удаленку

Inc.
Открыть в приложении