Как устроен объяснимый ИИ и какие проблемы он решает

РБКHi-Tech

Интеллект, понятный каждому

Как устроен объяснимый ИИ и какие проблемы он решает

Автор: Мария Решетникова

Современные разработки в сфере искусственного интеллекта упираются в проблему «черного ящика», которая ставит под сомнение объективность и точность моделей. Решением может стать прозрачный и объяснимый ИИ.

Объяснимый искусственный интеллект представляет собой следующий шаг в развитии ИИ, который сделает технологию более понятной и прозрачной. Внедрение объяснимого ИИ позволит расширить сферу его применения на отрасли, которые работают с потенциально чувствительными данными,— медицину, финансы, судопроизводство и другие.

Что такое объяснимый ИИ

Объяснимый ИИ (Explainable AI, XAI)—это направление исследований в области искусственного интеллекта. Оно стремится создать системы и модели, способные объяснять свои действия и принимать решения понятным для людей образом, чтобы повысить доверие к ИИ. Объяснимый ИИ используется для описания алгоритмов, а также ожидаемых последствий их работы и возможных отклонений. Для этого используются методы визуализации, более простые алгоритмы, а также интерактивные интерфейсы с подсказками.

Благодаря XAI, а также объяснимым процессам машинного обучения организации могут получить доступ к процессам принятия решений, лежащим в основе технологии, и вносить в них коррективы. Он также позволяет улучшить взаимодействие с пользователями, повышая доверие с их стороны.

Характеристики XAI

Объяснимый ИИ должен включать в себя три основных элемента.

Точность прогноза. Запустив моделирование и сравнив выходные данные XAI с результатами в наборе обучающих данных, можно определить точность работы модели. Самый популярный метод, используемый для этого,—это локальные интерпретируемые модельно-агностические объяснения (LIME), которые позволяют объяснить каждый прогноз нейросети. Они анализируют входные данные после того, как те проходят через алгоритм, и сравнивают полученный результат с прогнозируемым. Для этого LIME используют собственный специально обученный на этих данных алгоритм. Сравнение позволяет понять ход рассуждения исходной нейросети.

Прослеживаемость. Она достигается в том числе за счет ограничения способов принятия решений и установления более узкой области применения правил и функций машинного обучения. Примером метода отслеживания XAI является DeepLIFT (Deep Learning Important FeaTures—важные функции глубокого обучения), который сравнивает работу каждой точки («нейрона») нейросети с эталонным показателем и показывает зависимости между ними.

Объясняемость и интерпретируемость. Это показатели, которые отображают, насколько наблюдатель может понять причину принятия решения, а также предсказать вероятность успеха работы модели. Существуют специальные технологии, которые обеспечивают визуализацию этих показателей. Например, What-if—инструменты для визуального исследования поведения обученных моделей, тестирования их производительности в гипотетических ситуациях и анализа важности различных функций данных.

Преимущества XAI

Внедрение объяснимого ИИ дает ряд положительных эффектов как в коммерческом, так и в государственном секторах:

  • повышение производительности, более быстрое выявление ошибок в модели;
  • укрепление доверия со стороны клиентов и пользователей;
  • снижение регуляторных и других рисков.

В некоторых странах внедрение объяснимого ИИ станет обязательным требованием для компаний со стороны государств. Европарламент уже принял закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей ИИ. Они должны обеспечить прозрачность работы таких систем.

Технологии XAI

Для создания объяснимого ИИ применяются следующие основные техники машинного обучения:

  • деревья решений выдают четкое визуальное представление процесса принятия решений ИИ;
  • системы на основе правил выводят алгоритмические правила работы в понятном для человека формате;
  • байесовские сети, или модели вероятностей, которые показывают причинно-следственные связи в работе алгоритма и объясняют неопределенности;
  • линейные модели демонстрируют, как каждый входной параметр влияет на решение нейросети.

Перспективы внедрения XAI

Несмотря на все плюсы XAI, внедрение такого ИИ сталкивается с рядом препятствий, таких как:

отсутствие консенсуса по определениям нескольких ключевых понятий—некоторые исследователи используют термины «объяснимость» и «интерпретируемость» как синонимы, а другие четко разделяют их;

недостаток практических рекомендаций по поводу того, как выбирать, внедрять и тестировать XAI;

отсутствие понимания, должен ли объяснимый ИИ быть понятным для обычных пользователей.

Отдельные исследователи предложили идею «белого ящика», или моделей, которые будут объяснимыми и прозрачными. Так, систему ИИ можно разбивать на модули, каждый из которых может быть интерпретирован, либо изначально строить модели с соблюдением правил прозрачности, чтобы разработчик не терял контроль над ситуацией.

Однако другие эксперты считают, что и «белый ящик» не решит проблему доверия к ИИ со стороны людей, у которых нет технического образования. По их мнению, XAI и объяснимый ИИ — это лишь часть более широких усилий для создания искусственного интеллекта, работа которого будет понятна любому человеку.

Тайны «черного ящика»

XAI использует специальные методы, позволяющие отслеживать и объяснять каждое решение, принятое в процессе машинного обучения. ИИ же обучается с помощью алгоритма, архитектура которого не до конца понятна. Эту проблему принято называть «черным ящиком»: даже если система дает точные ответы, зачастую сложно выяснить, как именно она пришла к такому решению.

Аналогичным образом сложно понять, когда именно система начала ошибаться в ответах и чем это было вызвано. Профессор компьютерных наук Университета Луисвилля Роман Ямпольский в своей работе «Необъяснимость и непостижимость искусственного интеллекта» отмечал: «Если все, что у нас есть,—это «черный ящик», то невозможно понять причины сбоев и повысить безопасность системы. Кроме того, если мы привыкнем принимать ответы ИИ без объяснения причин, мы не сможем определить, не начал ли он давать неправильные или манипулятивные ответы. Это чрезвычайно опасная дорога, на которую мы ступаем».

Преимущества «черного ящика» заключаются в том, что такое обучение происходит быстрее и стоит дешевле, а также позволяет давать системе для обучения сразу большой массив данных. Современные модели, такие как GPT и Alpha Zero, обучаются именно по модели «черного ящика». Так, OpenAI —разработчик ChatGPT, DALL-E и других ИИ-систем—не стала раскрывать набор данных, использованных для обучения модели GPT-4.

Участники сообщества раскритиковали действия компании, отметив, что они затрудняют разработку средств защиты от угроз, исходящих от систем ИИ. Вице-президент по информационному дизайну Бен Шмидт, который работает в стартапе моделей ИИ с открытым исходным кодом Nomic AI, считает, что выход GPT-4 «может положить конец «открытому» ИИ».

Такой подход имеет и другие негативные стороны—в «черном ящике» сложнее выявить предвзятость алгоритма и оценить качество входных данных. На эту проблему указали исследователи из Пало-Альто, центра Кремниевой долины. Они отмечали, что при обучении больших языковых моделей используются массивы данных из интернета, которые не отражают интересы всех групп населения, поскольку у некоторых из них просто нет доступа к Cети.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Краткая история наготы Краткая история наготы

Как менялось отношение человечества к обнаженному телу

Правила жизни
Бренды и тренды Бренды и тренды

Будущее автомобилей направлено исключительно вверх

Men Today
Движение вокруг недвижимости Движение вокруг недвижимости

Как искусственный интеллект захватывает один из ключевых рынков

РБК
Александр Гронский и Алина Глазун Александр Гронский и Алина Глазун

Арт-паверкапл художницы Алины Глазун и фотографа Александра Гронского

Собака.ru
Рубен Ениколопов: «В вопросах на миллиарды долларов нельзя консультироваться с ChatGPT» Рубен Ениколопов: «В вопросах на миллиарды долларов нельзя консультироваться с ChatGPT»

Рубен Ениколопов: сможет ли Россия в одиночку совершить технологический рывок

РБК
«Стекло в пуантах — прошлый век» «Стекло в пуантах — прошлый век»

Почему в профессии балерины так важны верные партнеры и любовь к своему делу

OK!
Много шума — и ничего Много шума — и ничего

Антирейтинг — топ-7 наиболее значимых технологических провалов нашего времени

РБК
Кто даст мне сто долларов? Кто даст мне сто долларов?

Аукционные дома Sotheby’s и Christie’s: инструкция по применению

Weekend
Сергей Шумский: «У роботов не будет инстинкта власти, как у человека» Сергей Шумский: «У роботов не будет инстинкта власти, как у человека»

Минувший год имеет шансы войти в историю как время взрывного роста нейросетей

РБК
10 неожиданных вопросов группе X4 10 неожиданных вопросов группе X4

Группа X4 — о финансовых приоритетах и детских утренниках

VOICE
Руперт Мёрдок Руперт Мёрдок

Правила жизни миллиардера и медиамагната Руперта Мёрдока

Правила жизни
Правда ли, что OLED-экраны мониторов и телевизоров выгорают? Правда ли, что OLED-экраны мониторов и телевизоров выгорают?

Выгорание OLED-экранов: оправданы ли страхи в действительности?

CHIP
Плечо для внешней торговли Плечо для внешней торговли

Рост российского несырьевого неэнергетического экспорта — в числе приоритетов

РБК
5 привычек, которые бесят всех врачей 5 привычек, которые бесят всех врачей

Почему врач не может поставить вам правильный диагноз?

Maxim
Александр Пиперски: «Нейросети взломали систему человеческой коммуникации» Александр Пиперски: «Нейросети взломали систему человеческой коммуникации»

Как мы будем обмениваться информацией в век новых технологий

РБК
«Операция „Барбаросса“: Начало конца нацистской Германии» «Операция „Барбаросса“: Начало конца нацистской Германии»

Что мешало немцам продвигаться к Москве

N+1
Алексей Москалёв: «Старение – не обособленный процесс, а совокупность взаимосвязанных биологических каскадов, среди которых выделяются хроническое воспаление, гликирование и окислительный стресс» Алексей Москалёв: «Старение – не обособленный процесс, а совокупность взаимосвязанных биологических каскадов, среди которых выделяются хроническое воспаление, гликирование и окислительный стресс»

Что сейчас известно о природе долголетия?

Здоровье
«Нет ничего прекраснее антарктических льдов» «Нет ничего прекраснее антарктических льдов»

Почему важна наука гляциология и что она изучает?

Знание – сила
Как повысить конверсию сайта и заявок: 9 шагов к эффективной воронке в digital-маркетинге Как повысить конверсию сайта и заявок: 9 шагов к эффективной воронке в digital-маркетинге

Посетители приходят на сайт — но не оставляют заявки?

ТехИнсайдер
Излучение и наказание Излучение и наказание

Наш мир тонет в лучах, от которых не спасет и шапочка из фольги

Men Today
Гипервитаминоз: к чему может привести избыток витаминов в организме Гипервитаминоз: к чему может привести избыток витаминов в организме

Чем может быть опасен избыточный прием витаминов?

ТехИнсайдер
4 признака того, что в морозильной камере установлена неправильная температура 4 признака того, что в морозильной камере установлена неправильная температура

Как понять, что морозилка работает неправильно?

ТехИнсайдер
Олег Минаков: «Рынок дженериков будет замедляться, и мы ставим на биотех» Олег Минаков: «Рынок дженериков будет замедляться, и мы ставим на биотех»

Почему «Озон Фармацевтика» решила сосредоточиться на выпуске биоаналогов

Монокль
Вот так кульбаба! Вот так кульбаба!

Пик жизни кульбабы наступает именно тогда, когда все уже готовятся к зиме

Наука и жизнь
Дональд Трамп усложнил выдачу виз для граждан всех стран, включая Россию Дональд Трамп усложнил выдачу виз для граждан всех стран, включая Россию

Дональд Трамп хочет, чтобы в США приезжали только высококвалифицированные кадры

Ведомости
Шок-контент! Шок-контент!

Полезен ли интернет-тренд на поедание сливочного масла вместо мороженого?

Лиза
Вода в топливном баке: чем опасна, как убрать и чем это лучше сделать Вода в топливном баке: чем опасна, как убрать и чем это лучше сделать

Как действовать, если вода в значимых количествах попала в бензобак?

РБК
Алина и Лилиана Григалашвили Алина и Лилиана Григалашвили

Алина и Лилиана Григалашвили — главные фэшн-сестры русской моды

Собака.ru
Тина Стойилкович Тина Стойилкович

Актриса Тина Стойилкович — о том, что счастье можно найти в любом возрасте

Grazia
Пелагея Нецветаева-Долгалева, Никита Еликаров Пелагея Нецветаева-Долгалева, Никита Еликаров

Артисты балета — новые фэшн-звезды!

Собака.ru
Открыть в приложении