Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Разумные сомнения. Как критическое мышление помогает распознавать дезинформацию и противостоять манипуляциям Разумные сомнения. Как критическое мышление помогает распознавать дезинформацию и противостоять манипуляциям

Как не попадаться на обман и манипуляции собственного мозга и других людей

РБК
Это все гены: правда ли, что плохие зубы — наследственность? Это все гены: правда ли, что плохие зубы — наследственность?

Может ли плохая наследственность стать причиной дентальных проблем?

Psychologies
Мировой уровень Мировой уровень

Пять глобальных предпринимателей из России, известных далеко за пределами Рунета

Forbes
Сколько лет Вселенной — все версии Сколько лет Вселенной — все версии

Люди с древних времен интересовались возрастом Вселенной и, наконец, нашли ответ

Популярная механика
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
«Уродливая Вселенная: как поиски красоты заводят физиков в тупик» «Уродливая Вселенная: как поиски красоты заводят физиков в тупик»

Отрывок из книги Сабины Хоссенфельдер о том, как красота направляет исследования

N+1
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Фильму «Один дома» — 30 лет. Мы поговорили с продюсерами ленты о том, как создавалась рождественская классика Фильму «Один дома» — 30 лет. Мы поговорили с продюсерами ленты о том, как создавалась рождественская классика

Как фильм «Один дома» изменил судьбы своих создателей и изменил киноиндустрию

Esquire
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
В Мьянме открыли новый вид обезьян. Он уже под угрозой исчезновения В Мьянме открыли новый вид обезьян. Он уже под угрозой исчезновения

Численность нового вида составляет всего 199-259 особей

N+1
В городской тиши В городской тиши

Как можно улучшить город, пока он на карантине

Forbes
Карабах-2020. Военно-аналитический разбор Карабах-2020. Военно-аналитический разбор

50 тезисов о войне Азербайджана и Армении. Почему пала оборона Карабаха

Эксперт
Остудить землю Остудить землю

Самые распространенные направления геоинженерии

Вокруг света
Правила жизни Итана Хоука Правила жизни Итана Хоука

Правила жизни актера Итана Хоука

Esquire
Аграрный связной Аграрный связной

Как немец Штефан Дюрр использует 630 000 га российской земли

Forbes
Портрет писателя с котиком Портрет писателя с котиком

Домашние животные, помогавшие писателям писать

Weekend
Сын уборщицы и работника завода: как воспитывали родители Лионеля Месси Сын уборщицы и работника завода: как воспитывали родители Лионеля Месси

Лионель Месси родился в семье, где все были немного увлечены футболом

Cosmopolitan
Платные трассы, «Платон» и самокаты. Чем запомнился Минтранс Дитриха Платные трассы, «Платон» и самокаты. Чем запомнился Минтранс Дитриха

Отмена +20 км/ч, ПДД для самокатов и другие нововведения Евгения Дитриха

РБК
7 удивительных фактов о Зигмунде Фрейде, которые вы могли не знать 7 удивительных фактов о Зигмунде Фрейде, которые вы могли не знать

Старина Сигизмунд Шломо Фрейд и малоизвестные факты о его жизни и смерти

Популярная механика
4 парадоксальных способа выйти из тупиковой ситуации 4 парадоксальных способа выйти из тупиковой ситуации

Ловушка, как и решение, чаще всего находятся в нашей голове

Psychologies
7 животных, которые достигли в жизни большего, чем ты 7 животных, которые достигли в жизни большего, чем ты

Пингвин-полковник, кот-мэр и прочие возмутительно успешные представители фауны

Maxim
Правила доверительных отношений Правила доверительных отношений

Главный принцип воспитания — не врать ни себе, ни ребенку

СНОБ
Ананасы в шампанском — это пульс вечеров! Ананасы в шампанском — это пульс вечеров!

О литературном и гастрономическом вкусе Серебряного века

Наука и жизнь
Современный альфонс: как не попасться на удочку Современный альфонс: как не попасться на удочку

Что делать, чтобы уберечься от альфонса?

Cosmopolitan
«Я все контролирую»: зачем нам это нужно? «Я все контролирую»: зачем нам это нужно?

Пытаясь держать все под контролем, мы чувствуем истощение и усталость

Psychologies
Если мама не сумела вырасти: советы для взрослых детей Если мама не сумела вырасти: советы для взрослых детей

Автор книги «Вы и ваша мама» делится советами для спокойного общения с мамой

Psychologies
Не любовь, а саморазрушение: история отношений Мадонны и Шона Пенна Не любовь, а саморазрушение: история отношений Мадонны и Шона Пенна

Любовь Мадонны и Пенна как в старом итальянском кино: с битой посудой и криками

Cosmopolitan
7 российских страшилок, популярных на Западе 7 российских страшилок, популярных на Западе

А мы еще удивляемся, почему русских так боятся

Maxim
Братец Кролик и братец Лис Братец Кролик и братец Лис

Банкротство Прамода Миттала с долгом в сто тридцать миллионов фунтов

Tatler
«Люкс превратился в один большой магазин дьюти-фри»: лучшие высказывания Тильды Суинтон об одежде, моде и стиле и ее знаковые кинообразы «Люкс превратился в один большой магазин дьюти-фри»: лучшие высказывания Тильды Суинтон об одежде, моде и стиле и ее знаковые кинообразы

Тильда Суинтон о моде и отношениях с одеждой

Esquire
Открыть в приложении