Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Gram против доллара Gram против доллара

Американская Комиссия по ценным бумагам и биржам закрыла проект Павла Дурова TON

Forbes
Польза куркумы: доказанные преимущества специи для организма и рецепт золотого молока Польза куркумы: доказанные преимущества специи для организма и рецепт золотого молока

Положительные эффекты и противопоказания приема куркумы и напитков с ней

Playboy
«Ждем, когда 5G станет реальностью, а не только поводом для хайпа» «Ждем, когда 5G станет реальностью, а не только поводом для хайпа»

Александр Чуб — о том, как в России развивается инфраструктура для сотовой связи

РБК
Как накопить миллион Как накопить миллион

Планируешь крупную покупку? Учись откладывать деньги

Лиза
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Булат Окуджава Булат Окуджава

Каждый год 9 мая на Трубной площади стартует фестиваль памяти Булата Окуджавы

Дилетант
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Звезды, потерявшие детей: Ирина Безрукова, Джон Траволта и другие Звезды, потерявшие детей: Ирина Безрукова, Джон Траволта и другие

10 трагических историй о звездах, которые пережили своих детей

Cosmopolitan
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Прокачай себя! Тренировка c REBOOT LIVE # 6. Силовая тренировка ABS. Прокачай себя! Тренировка c REBOOT LIVE # 6. Силовая тренировка ABS.

Прощай, пивной живот! Здравствуйте, кубики!

Maxim
15 мыслей Алексея Пивоварова 15 мыслей Алексея Пивоварова

Алексей Пивоваров — о телевидении, пилотировании и цензуре в новых медиа

GQ
Как сказать начальнику, что ты перерабатываешь: 4 главных нюанса неудобного разговора Как сказать начальнику, что ты перерабатываешь: 4 главных нюанса неудобного разговора

Не бойся говорить начальнику о переработках прямо

Playboy
Экономика на высоких технологиях Экономика на высоких технологиях

Развитие ИТ-индустрии в Москвоской области стимулируется дополнительно

РБК
У бобовых нашли рецептор травоядной тревоги У бобовых нашли рецептор травоядной тревоги

Генетики обнаружили в коровьем горохе ген, распознающий нападение травоядных

N+1
Драма 1921 года Драма 1921 года

Страшные подробности царь-голода в Советской России 1921 года

Дилетант
Охота на должников. Несколько историй от ГИБДД о злостных нарушителях Охота на должников. Несколько историй от ГИБДД о злостных нарушителях

ГИБДД отрыла охоту на злостных неплательщиков штрафов

РБК
Игры разума Игры разума

Главная особенность этой квартиры — ванная комната, объединённая со спальней

SALON-Interior
Технология блокчейн Технология блокчейн

То, что движет финансовой революцией сегодня

kiozk originals
Вселенную лихорадит: температура космоса выросла в несколько раз и чем это может грозить Вселенную лихорадит: температура космоса выросла в несколько раз и чем это может грозить

За восемь миллиардов лет температура вещества во Вселенной выросла втрое

Forbes
Преемница Мураками: что нужно знать о японской писательнице Ёко Огаве и ее романе «Полиция памяти» — эссе переводчика и востоковеда Дмитрия Коваленина Преемница Мураками: что нужно знать о японской писательнице Ёко Огаве и ее романе «Полиция памяти» — эссе переводчика и востоковеда Дмитрия Коваленина

Переводчик Дмитрий Коваленин рассуждает о творчестве писательницы Ёко Огавы

Esquire
Алиса Хазанова: «Сегодня опасно даже просто выражать свое мнение» Алиса Хазанова: «Сегодня опасно даже просто выражать свое мнение»

Актриса Алиса Хазанова о кибербуллинге и токсичности соцсетей

GQ
Первая после 16 лет молчания книга Сюзанны Кларк «Пиранези». Публикуем первые главы Первая после 16 лет молчания книга Сюзанны Кларк «Пиранези». Публикуем первые главы

Отрывок из фантастического романа Сюзанны Кларк «Пиранези»

СНОБ
Мало, мало, мало огня Мало, мало, мало огня

Год, когда непостижимость божественного замысла включилась на максимум

Tatler
Я/мы. Что нас объединяет? Я/мы. Что нас объединяет?

Психолог Тахир Базаров размышляет о том, как изменилась социальная дистанция

Psychologies
Систему предсказания цвета глаз и волос по ДНК уточнили Систему предсказания цвета глаз и волос по ДНК уточнили

Генетики создали панель SNP маркеров для помощи криминалистам и палеогенетикам

Наука и жизнь
5 главных мифов про оружие, в которые мы верим из-за боевиков 5 главных мифов про оружие, в которые мы верим из-за боевиков

Реалистичность — это не обязательный атрибут кино, особенно в боевиках

Maxim
Бизнесмены 2020 года: Loóna Бизнесмены 2020 года: Loóna

Создатели приложения Loóna добились того, что другим и не снилось

GQ
Считавшегося вымершим мадагаскарского хамелеона переоткрыли спустя сто лет Считавшегося вымершим мадагаскарского хамелеона переоткрыли спустя сто лет

Ученые нашли около двадцати особей считавшихся вымершими хамелеонов в саду

N+1
Правила жизни Олдоса Хаксли Правила жизни Олдоса Хаксли

Правила жизни автора романа-антиутопии «О дивный новый мир» Олдоса Хаксли

Esquire
Безногие сцинки заново отрастили конечности ради выживания во влажном климате Безногие сцинки заново отрастили конечности ради выживания во влажном климате

Конечности помогают этим ящерицам бегать по поверхности и зарываться в почву

N+1
Открыть в приложении