Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Рейтинг доверия Рейтинг доверия

Дмитрий Марков — о рисках и преимуществах биометрических систем

РБК
Красота против партии: как жители КНДР борются с режимом с помощью контрабандной косметики Красота против партии: как жители КНДР борются с режимом с помощью контрабандной косметики

Как стремление к разнообразию и красоте заставляет людей рисковать свободой

Forbes
Шахзад Ансари: «У подрывных инноваций есть и темная сторона» Шахзад Ансари: «У подрывных инноваций есть и темная сторона»

Беседа с ведущим экспертом по внедрению инноваций Шахзадом Ансари

РБК
5 жутких морских катастроф, о которых вы могли не знать 5 жутких морских катастроф, о которых вы могли не знать

Самые страшные кораблекрушения

Популярная механика
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Правила жизни Скарлетт Йоханссон Правила жизни Скарлетт Йоханссон

Правила жизни американской актрисы

Esquire
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Других писателей у меня для вас нет Других писателей у меня для вас нет

Знакомьтесь: Омид Скоби, биограф Меган Маркл и принца Гарри

Tatler
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Засухи приведут к массовой замене древесных видов в лесах Земли Засухи приведут к массовой замене древесных видов в лесах Земли

Из-за засухи деревья в лесах будут заменяться засухоустойчивыми кустарниками

N+1
Техпарад Техпарад

Новости мира науки и техники

Популярная механика
Глаза Эйнштена и другие легендарные части тела великих людей Глаза Эйнштена и другие легендарные части тела великих людей

Они жили полной жизнью, даже когда оказывались вдали от своих владельцев!

Maxim
Бизнес без нервных срывов Бизнес без нервных срывов

Антон Кушнер: как войти в 2021 год с крепким ментальным здоровьем

РБК
В плену чувств: как звуки, вкусы и ароматы определяют наши потребительские желания В плену чувств: как звуки, вкусы и ароматы определяют наши потребительские желания

Глава из книги «Эстетический интеллект» — о работе брендов с ощущениями

Forbes
2002 год 2002 год

Теракт на Дубровке, футбольный погром, запуск «Масяни» и «Идущие вместе»

Esquire
Возвращение парусного флота Возвращение парусного флота

Почему парусники возвращаются?

Популярная механика
История одного необычного мальчика История одного необычного мальчика

Даже если ребенку поставил диагноз психиатр, это не окончательный приговор

СНОБ
Продюсер 2020 года: Вячеслав Муругов Продюсер 2020 года: Вячеслав Муругов

Империя Вячеслава Муругова оккупирует все экраны страны

GQ
Вне времени: как Леонардо ДиКаприо транслирует с экрана идеальный классический мужской образ с налетом ретро Вне времени: как Леонардо ДиКаприо транслирует с экрана идеальный классический мужской образ с налетом ретро

Кинообразы Леонардо ДиКаприо — вечная классика мужского гардероба

Esquire
Мало, мало, мало огня Мало, мало, мало огня

Год, когда непостижимость божественного замысла включилась на максимум

Tatler
5 непростых историй: дочери знаменитостей с серьезными проблемами с наркотиками 5 непростых историй: дочери знаменитостей с серьезными проблемами с наркотиками

5 историй о наследницах известных фамилий, которые оказались на грани пропасти

Cosmopolitan
Правила жизни братьев Коэн Правила жизни братьев Коэн

Лучшие цитаты братьев Коэн: о жизни и кино

Esquire
Как записать видео с экрана смартфона: Android и iOS Как записать видео с экрана смартфона: Android и iOS

Хотите записать прохождение мобильной игры или вебинар на экране телефона?

CHIP
Разделяй и властвуй: зачем государства пытаются ограничить IT-компании Разделяй и властвуй: зачем государства пытаются ограничить IT-компании

IT-компании превратились в конкурентов государств

Forbes
Человек «растроенный»: как и чем живет группа OQJAV Человек «растроенный»: как и чем живет группа OQJAV

Мы поговорили с группой OQJAV о том, как все устроено в их трио

РБК
Моя терапия: «Было проще с ним согласиться, чем слушать крики» Моя терапия: «Было проще с ним согласиться, чем слушать крики»

История о том, как работа с психотерапевтом спасла женщину от абьюза

Psychologies
Новая домашняя подъемная машина Новая домашняя подъемная машина

Наши города и здания часто напоминают полосу препятствий

Наука и жизнь
Тимоти Шаламе. Не просто красивый мальчик Тимоти Шаламе. Не просто красивый мальчик

В свои 25 он самый востребованный и одновременно самый загадочный актер

Караван историй
«Менеджер должен признавать ошибки и не быть слишком заносчивым»: карьерные советы вице-президента Porsche «Менеджер должен признавать ошибки и не быть слишком заносчивым»: карьерные советы вице-президента Porsche

Какие качества нужны для построения успешной карьеры в автомобильной компании

Forbes
«Если ты играл с императором рояля, разве трудно сыграть с императрицей Японии?» «Если ты играл с императором рояля, разве трудно сыграть с императрицей Японии?»

Юрий Башмет – о первом концерте со Святославом Рихтером

GQ
Открыть в приложении