Как пересекаются этика и искусственный интеллект?

ЭкспертHi-Tech

Об этике применения программных средств с элементами искусственного интеллекта

Когда мы говорим об этике ИИ, речь идет, конечно, не о самих машинах, а об их создателях и пользователях, то есть об этике проектирования, конструирования и использования сложных программных алгоритмов, исключающей негативные последствия их применения для личности, общества и государства

Андрей Дубровин, Роман Титов, Александра Баранова*

Отдайте же человеку — человеческое, а вычислительной машине — машинное. Винер Н. «Творец и Будущее».

Этика искусственного интеллекта (ИИ) считается одним из самых важных и актуальных вопросов, которые стоят перед нашим обществом в настоящее время. Одно из определений рассматривает этику ИИ как часть этики технологий, характерную для роботов и других искусственно интеллектуальных «существ». Проблематика этики обычно разделяется на два аспекта:

— этика создателей, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании искусственно разумных существ;

— этика машин, которая затрагивает проблемы морального поведения самих искусственных моральных агентов.

Наибольшее число страхов и вопросов в обществе вызывает второй аспект. Важно отметить, что в настоящее время широко распространено следующее заблуждение: искусственным интеллектом называют любую компьютерную программу, способную в той или иной степени заменить какую-либо умственную деятельность человека, хотя к интеллекту как таковому она не имеет никакого отношения. До создания полноценного ИИ технологии еще не развились. Для этого как минимум необходимо полностью изучить процессы головного мозга — разобрать на кирпичики человеческий разум. А это даже современной науке не по силам.

Что касается официальных формулировок, то сегодня ситуация в России следующая: согласно Федеральному закону «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации…» (№ 123-ФЗ от 24.04.2020), ИИ — это «комплекс технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Надо отдать должное нашим законодателям и сказать спасибо за адекватные формулировки: «имитировать» и «сопоставимые». Они отражают реальное положение дел в области развития ИИ. Подавляющая же часть граждан воспринимает современные сложные программные комплексы с элементами ИИ как «копирующие» мыслительные функции человека, как «аналогичные» человеческому разуму.

Однако, к сожалению, ни одна из статей упомянутого закона не затрагивает не только вопросы, касающиеся этических принципов функционирования ИИ, но и аналогичные вопросы в сфере создания и применения сложных программных комплексов, «получающих при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Еще раз: употребляя эффектный термин «искусственный интеллект», надо понимать, что речь сегодня идет не о полноценном аналоге человеческого интеллекта, а о сложных, эффективных, самообучающихся, но все-таки компьютерных программах. А значит, и этика реального искусственного интеллекта пока остается в стороне. Это вопрос будущего, который может рассматриваться учеными, философами и фантастами исключительно гипотетически.

Пока ИИ не будет создан, что называется «во плоти», мы не можем реально оценить его плохие или хорошие стороны. Можно даже допустить, что новое творение человеческого гения окажется обладателем такой неуловимой материи, как душа. Современные же программные средства, хоть и очень эффективные, душой обладать не смогут никогда. Это даже не человекоподобный манекен, а пародии на его части. А где нет души — там нет и этики. Где нет этики — нет места человеку. И именно эта грань духовно-технократического конфликта является сегодня одной из важнейших проблем человечества. Отсутствие реального искусственного интеллекта не избавляет нас от проблем, связанных с программными средствами, пытающимися частично исполнить его функции.

Из вышесказанного следует, что актуальным на сегодня аспектом этики ИИ является не этика самих машин, а этика их создателей и пользователей, то есть этика проектирования, конструирования и использования сложных программных алгоритмов, исключающая негативные последствия их применения для личности, общества и государства. И корректнее было бы назвать это этикой «проектирования и применения программных комплексов, подражающих человеческому разуму». Но для простоты восприятия пускай останется «этика применения элементов ИИ».

Рассмотрим несколько самых очевидных проблем, связанных с этикой применения элементов ИИ.

Безопасен ли ИИ

Проблема безопасности. Многие эксперты считают, что алгоритмы некоторых программ могут представлять угрозу для человечества, если они станут слишком интеллектуальными и начнут действовать вопреки нашим интересам. Это может произойти, например, если алгоритм станет разрабатывать собственные цели и стремиться к их достижению, игнорируя интересы людей. В России уже начали делать первые шаги в направлении регулирования вопросов безопасности в сфере применения элементов ИИ. Так, согласно «Национальной стратегии развития искусственного интеллекта на период до 2030 года», которая утверждена Указом президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», основным принципом развития и использования технологий ИИ является безопасность, которая понимается следующим образом: «недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ».

Другой важный аспект этики применения элементов ИИ связан с проблемой автономности. Современные роботизированные системы уже способны действовать без участия человека, и это может приводить к непредсказуемым последствиям. Например, если автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьезным последствиям, включая гибель людей.

Возможны также ситуации, когда программа с элементами ИИ принимает решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям, которые дискриминируют определенные группы людей. Это серьезная проблема, и она требует особого внимания и разработки механизмов, в том числе законодательных, которые позволят обнаруживать и корректировать подобные ошибки.

Не менее важны и этические вопросы в связи с использованием элементов ИИ в критически важных отраслях, например в медицине. Сложные программные комплексы могут использоваться для диагностики и лечения пациентов, что может привести к повышению качества здравоохранения. Однако потенциально это также может вызвать этические проблемы, например если элемент ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей.

Еще одна важная тема в области этики применения элементов ИИ связана с проблемой прозрачности. Многие программные системы используют массивные и сложные алгоритмы, логика которых обычным людям непонятна. Это может создавать проблемы в том, что люди не смогут объяснить, почему система приняла определенное решение, породит недоверие к использованию элементов ИИ и неприятие их в обществе.

Следующая важная тема, связанная с этикой применения элементов ИИ, — это проблема ответственности. Кто несет ответственность за действия принимающей решения системы, если она причинила вред? Необходимо разработать механизмы, которые позволят четко разграничить ответственность за негативные действия и обеспечить компенсацию пострадавшим в случае необходимости.

Концепция этической архитектуры

Для того чтобы решить все эти проблемы, необходимо развивать принципиально новый подход к созданию и использованию современных, мощных программных систем с элементами ИИ. Этот подход должен основываться на тщательном анализе потенциальных этических рисков и учете интересов всех заинтересованных сторон. Кроме того, нужно разработать этические стандарты и регуляторные механизмы, которые обеспечат соблюдение этих стандартов в различных аспектах искусственного интеллекта: сбор данных, база данных, пределы самостоятельных решений, прозрачность и регулируемость результатов применения и пр.

Один из примеров таких стандартов — концепция «этической архитектуры» для систем искусственного интеллекта. Эта концепция предлагает использовать этические принципы уже в процессе проектирования программных систем, чтобы минимизировать риски, связанные с их использованием. Этическая архитектура может включать в себя, например, использование принципа «безопасности по умолчанию», который предполагает, что система с элементами ИИ должна быть настроена на максимальную безопасность для людей.

Другой пример — разработка кодекса этики для исследователей в области и сможет включать в себя принципы, направленные на защиту прав и интересов пользователей систем с элементами ИИ, а также требования к прозрачности и ответственности за действия таких систем.

Однако все мы взрослые люди и прекрасно понимаем, в какой агрессивно-конкурентной среде мы сегодня живем. Никакие концепции, принципы и кодексы не остановят исследователей, ученых, программистов крупных корпораций, если на горизонте замаячит возможность заполучить непреодолимое конкурентное преимущество. И тут без вмешательства государства никак не обойтись. Регулирование этики применения элементов ИИ — это в первую очередь государственная функция.

Для того чтобы решить этические проблемы, нужны действия правительства. Например, законодательство должно требовать от компаний, ведущих разработки в области ИИ, соблюдения принципов прозрачности и открытости, чтобы пользователи могли понимать, как та или иная система работает и какие данные о пользователе она собирает. Законодательство также может требовать от компаний обеспечивать защиту персональных данных и принимать меры по предотвращению дискриминации при использовании элементов ИИ.

Кроме того, важно развивать и применять методы тестирования и оценки программных систем с элементами ИИ, чтобы выявлять этические проблемы и риски, предотвращать их до введения элементов ИИ в эксплуатацию. Важно также обучать разработчиков и пользователей этическим принципам, чтобы они могли осознавать и минимизировать риски.

Но даже если будут приняты все необходимые меры для обеспечения этичности и безопасности применения элементов ИИ, вопросы этики останутся актуальными и будут требовать дальнейшего обсуждения и развития.

В связи с этим возникает идея создания специальных правительственных агентств или комиссий, которые занимались бы вопросами этики развития сложных программных систем с элементами искусственного интеллекта и ответственности за их действия. Важно учитывать и международный аспект проблематики. Так как современные программные средства с элементами ИИ имеют потенциал стать ключевой технологией для многих стран, необходимо разработать международные стандарты и нормы, которые обеспечат безопасное и этичное их использование во всем мире. Международные организации, такие как ООН или ШОС, могут стать платформами для разработки и внедрения таких международных стандартов и норм.

Острой становится проблема использования элементов ИИ в военном деле. Современные военные конфликты уже доказали, что использование даже простейших программных средств существенно повышает эффективность на поле боя. Нетрудно представить, что произойдет, когда непреодолимая военная сила, основанная на использовании элементов ИИ, попадает в руки «плохих парней». А учитывая нынешнее геополитическое противостояние Востока и Запада, военные риски, связанные с применением программных систем с элементами ИИ, возрастают многократно.

Недружественные нам страны фокусируются на перманентном использовании перспективного ИИ как составляющей концепта гибридной войны. В предисловии к «Стратегии оборонного искусственного интеллекта» министерства обороны Великобритании министр Бен Уоллес указал следующее: «Чтобы справиться с различными вызовами (по контексту имеются в виду вызовы со стороны России. — Авт.), оборона должна уделять приоритетное внимание исследованиям, разработкам и экспериментам, сохраняя стратегическое преимущество за счет использования инновационных концепций и передовых технологических достижений, а искусственный интеллект является одной из технологий, необходимых для модернизации обороны».

В «Комплексной оперативной концепции Великобритании» содержатся еще более ужасающие заявления: «Заглядывая в будущее, в следующее десятилетие, мы видим, что сочетание проверенных технологий, таких как повсеместная доступность данных благодаря расширенному подключению к облачным хранилищам, машинное обучение и искусственный интеллект, а также квантовые вычисления позволят создать не просто новое поколение систем вооружения, но и совершенно новый способ ведения войны».

Как вам такой вариант использования элементов ИИ бывшими «партнерами»? Вероятно, уже в недалеком будущем потребуется ограничение применения элементов ИИ в военном деле, по аналогии с международными договорами об ограничении распространения ядерного вооружения (например, раскрытие кода).

Наряду с военным использованием элементов ИИ не менее важное место занимает и воздействие на социальную среду. Мы все привыкли к ситуации, когда после поиска определенного товара таргетированная реклама сама подкидывает нам подходящие варианты его приобретения. При желании таким же образом можно откорректировать даже свою новостную ленту. А что если это не ваше желание? Что если некая «сущность» на основе статистики исключительно ваших предпочтений из поиска, ваших предпочтений в использовании тех или иных соцсетей, ваших контактов, ваших покупок, ваших регулярных мест посещения, ваших любимых фильмов, книг и т. д., в конце концов, ваших индивидуальных психологических особенностей начнет «скармливать» вам определенный социальный или политический нарратив в подходящей оболочке, который сможет побудить вас к определенным действиям, выгодным этой «сущности»?

Есть такой термин в маркетинге — «омниканальность», означающий дословно «взаимную интеграцию разрозненных каналов коммуникации в единую систему с целью обеспечения бесшовной и непрерывной коммуникации с клиентом». Омниканальность в сфере управления социумом в сочетании с индивидуальным подходом даст такой синергетический эффект, какой никаким пропагандистам и не снился. Однако такой «комплекс мероприятий» очень сложно организовать лишь силами людей. Для воздействия только на одного человека понадобится целый штат сотрудников, начиная с аналитиков данных и заканчивая психологами. А для управления социумом требуется влиять на массы. Эффективно управлять таким массовым «комплексом мероприятий» сможет лишь сложный программный комплекс с элементами ИИ. Различные «цветные революции» можно будет устраивать буквально «в несколько кликов».

Можно ли отдавать столь мощную силу в руки частным корпорациям или позволить подобным образом влиять на сознание российского общества недружественным странам? Соответствует ли такое применение элементов ИИ этическим нормам современного, цивилизованного человека? Ответ очевиден.

Наступили времена, когда программные средства достигли такого развития, что стали играть в жизни человека ключевую роль. Что неудивительно: мир стремительно несется к созреванию пятого технологического уклада и началу формирования шестого. Эти процессы ведут к полной трансформации как хозяйственной деятельности, так и самого человеческого общества. В погоне за технологическим развитием важно не растерять те этические ориентиры, которые были выстраданы в течение двухсот тысяч лет нашей общечеловеческой истории.

Напоследок стоит отметить, что этические вопросы никогда не будут решены раз и навсегда. Они будут требовать постоянного обновления и адаптации в соответствии с развитием технологий. Решение этих вопросов потребует постоянного общения и диалога между различными группами, включая разработчиков, экспертов, общественные организации и, самое главное, государство. Все должны работать сообща, чтобы создать условия, при которых интересы всех членов общества будут учтены, а безопасность использования технологий с элементами ИИ — гарантирована. 

Фото: Taidgh Barron/ZUMA, Piero Nigro/ALTO PRESS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Банкомат с российскими «мозгами» Банкомат с российскими «мозгами»

В России стали выпускать банкоматы на основе отечественного процессора «Эльбрус»

Эксперт
Могут ли люди предвидеть разрыв и расставание влюбленной пары и стоит ли им верить Могут ли люди предвидеть разрыв и расставание влюбленной пары и стоит ли им верить

Как факт разрыва отношений меняет представление окружающих о паре

ТехИнсайдер
Русский фастфуд быстро не накормит Русский фастфуд быстро не накормит

Фастфуд уверенно теснит рестораны на рынке общественного питания

Эксперт
Что такое плазмолифтинг и как его проводят Что такое плазмолифтинг и как его проводят

Как работает плазмолифтинг и в чем его отличие от других бьюти-процедур?

РБК
Дискаунтер с элементами шика Дискаунтер с элементами шика

Федеральный ретейлер «Магнит» запускает сеть жестких дискаунтеров «Первый выбор»

Эксперт
Стесняюсь спросить: почему появляется перхоть и как от нее избавиться Стесняюсь спросить: почему появляется перхоть и как от нее избавиться

Перхоть: почему она возникает и можно ли её вылечить?

Правила жизни
Специальный проект — Гороскоп 2022 Специальный проект — Гороскоп 2022

Астрологический прогноз на весь 2022 год

Vogue
Слайд-шоу Слайд-шоу

Космические корабли, инновационные мотоциклы и складные дома

ТехИнсайдер
От города миллионеров к СберСити От города миллионеров к СберСити

Город от Сбера: акцент на экотехнологии и цифровизации

Эксперт
Радиошум земных вышек мобильной связи оказался недоступен для обнаружения с ближайших звезд Радиошум земных вышек мобильной связи оказался недоступен для обнаружения с ближайших звезд

Утечка излучения от вышек мобильной связи на Земле не может быть обнаружена

N+1
Макаки скоординировали движения друг с другом Макаки скоординировали движения друг с другом

Исследователи изучили социальную природу двигательной координации

N+1
Нечеловеческие усилия: как битвы роботов способствуют развитию стартапов Нечеловеческие усилия: как битвы роботов способствуют развитию стартапов

Сооснователь Promobot: турнир «Битва роботов» — альтернатива акселераторам

Forbes
Вам одиноко? Ученые нашли связь между использованием YouTube и повышенным одиночеством Вам одиноко? Ученые нашли связь между использованием YouTube и повышенным одиночеством

Исследователи обнаружили связь между YouTube и повышенным уровнем одиночества

ТехИнсайдер
Детская травма или избалованность? Как расцветают нарциссы Детская травма или избалованность? Как расцветают нарциссы

Кто эти родители, чье обращение к ребенку влечет за собой нарциссизм?

Psychologies
Узнайте необычные привычки людей с высоким интеллектом! Интересные факты Узнайте необычные привычки людей с высоким интеллектом! Интересные факты

На умственные способности человека влияет множество факторов

ТехИнсайдер
7 ошибок в споре с рассерженным человеком 7 ошибок в споре с рассерженным человеком

Как вести себя с рассерженными людьми, чтобы не усугубить ситуацию?

Psychologies
Палеонтологи обнаружили остатки древнейших птерозавров Австралии Палеонтологи обнаружили остатки древнейших птерозавров Австралии

Австралийские палеонтологи изучили два ископаемых образца

N+1
Это пригодится! Лучшие способы очистить матрас от любых пятен Это пригодится! Лучшие способы очистить матрас от любых пятен

У многих хозяек возникает вопрос — как же стирать матрасы?

ТехИнсайдер
Дневные бабочки появились 100 миллионов лет назад в Северной Америке Дневные бабочки появились 100 миллионов лет назад в Северной Америке

История чешуекрылых (Lepidoptera) насчитывает сотни миллионов лет

N+1
Как бизнесмен из Волжского создал сеть блинных по франшизе и вышел в Дубай Как бизнесмен из Волжского создал сеть блинных по франшизе и вышел в Дубай

Евгений Купко рассказывает, как ему пришла идея открыть блинную

Forbes
Отечественные фильмы, получившие самые престижные награды за границей Отечественные фильмы, получившие самые престижные награды за границей

Оскар и Канны были отнюдь не равнодушные к фильмам из СССР

Maxim
Тайна Рюрика: кем же был основатель первой правящей династии на Руси Тайна Рюрика: кем же был основатель первой правящей династии на Руси

Тайна появления Рюрика на Руси до сих пор не разгадана

Вокруг света
Захар Ящин Захар Ящин

Захар Ящин известен как гениальный шрифтовик

Правила жизни
Человек и животные страдают от несчастий пережитых в детстве. Но только не гориллы Человек и животные страдают от несчастий пережитых в детстве. Но только не гориллы

Что помогает гориллам справиться с детскими бедами?

ТехИнсайдер
Думайте меньше! Необычная причина боли в шее и пояснице: стоит узнать Думайте меньше! Необычная причина боли в шее и пояснице: стоит узнать

Как когнитивный диссонанс приводит к дополнительному давлению на шею и поясницу?

ТехИнсайдер
Эволюция русалочки: нужен ли под водой темный цвет кожи Эволюция русалочки: нужен ли под водой темный цвет кожи

Существует ли эволюционная выгода для русалок от темной кожи под водой?

СНОБ
Можно ли «отмотать назад» свой возраст? Да, говорят генетики, и вот как стать новым Дорианом Греем Можно ли «отмотать назад» свой возраст? Да, говорят генетики, и вот как стать новым Дорианом Греем

Ученые показали, как повернуть вспять ход собственных биологических часов

Вокруг света
У 14-летней девочки отобрали телефон. В отместку она подожгла общежитие и убила 19 детей! У 14-летней девочки отобрали телефон. В отместку она подожгла общежитие и убила 19 детей!

Девушка разозлилась и подожгла общежитие после того, как у нее отобрали телефон

ТехИнсайдер
Жизнь во лжи: кому и зачем мы врем Жизнь во лжи: кому и зачем мы врем

Почему мы, нормальные и честные, тоже врем?

VOICE
Дорогие дороги: какой будет цифровизация дорожного строительства Дорогие дороги: какой будет цифровизация дорожного строительства

Как цифровизация скажется на дорожном хозяйстве?

Forbes
Открыть в приложении