В принятии важных решений все чаще участвуют алгоритмы машинного обучения

GQHi-Tech

Машины рулят людьми

Текст: Антон Иванов. Коллажи: Алик Новожилов

0:00 /
1069.483

Нас призывают придерживаться принципов политкорректности и толерантности, но будет ли играть по этим правилам искусственный интеллект или, пока люди строят общество равных возможностей, где-то за кулисами их судьбы будут решать роботизированные алгоритмы, по-разному оценивающие представителей разных полов, рас и сексуальных меньшинств?

В принятии жизненно важных решений — от выдачи кредита до постановки медицинского диагноза — все чаще участвуют алгоритмы машинного обучения (ранние зачатки искусственного интеллекта). Во Франции так распределяют детей по школам, в Америке рассчитывают тюремный срок, который получит осужденный. Кредит, страховка, судьба претендента на вакантное место — все эти вопросы из-под власти людей уходят к роботам. В основе железной логики машин всегда лежит анализ огромных баз данных, но какая именно информация о вас станет решающей, не скажет никто.

«Сегодня можно создать алгоритмы, способные скомпрометировать человека и вторгнуться в его личную жизнь. Например, ученые из Стэнфорда в порядке эксперимента уже научили нейронные сети по фотографии человека довольно точно определять сексуальную ориентацию, — рассказывает вице-президент Тинькофф-банка Константин Маркелов. — Есть возможность распознать человека, попавшего в поле зрения видеокамеры, найти его профиль в соцсетях и через сервисы, которых множество, узнать о его поисковых запросах, маршрутах перемещений, достатке. После этого алгоритм может сделать тот или иной вывод — в зависимости от поставленной задачи». Выводы эти далеко не всегда бесстрастные.

Одними из первых тревогу забили ученые Принстонского университета, заметившие, что искусственный интеллект, обучающийся на текстовых источниках, быстро становится предвзятым и начинает считать белый цвет кожи и мужской пол преимуществами. Причина в том, что этими предрассудками наполнены наши книги, наш интернет и даже наш язык. Например, слово «профессионал» имеет положительную коннотацию, а «профессионалка» — несколько иную, и таких примеров множество. Даже тот факт, что слова «доктор» и «инженер» — мужского рода, уже наводит компьютер на мысль о том, что эти вакансии не для женщин. Компания Amazon уже пережила скандал с HR‑алгоритмом, который пытался нанимать только представителей сильного пола.

Искусственный интеллект, как ребенок, впитывает все, что ему дают. К чему приводит такое обучение, пущенное на самотек, мы увидели в 2016 году, когда чат-бот Tay от компании Microsoft за сутки из милого собеседника превратился в фашиста. «Люди — клевые» — таким было его первое сообщение, но уже вскоре он требовал смерти феминисток, признавался в ненависти к человечеству и говорил, что Гитлер был прав. Не значит ли это, что, доверив искусственному интеллекту свой мир сегодня, завтра мы окажемся в руках электронных безумцев?

Основатель компании Tazeros Global, специалист по обработке данных Артур Хачуян уверен, если это и произойдет, то виноваты будут сами люди: «Самостоятельного искусственного интеллекта пока не существует в принципе. Все алгоритмы машинного обучения исходят от людей и, соответственно, проблемы — тоже. Майкрософтовский бот стал расистом, потому что создавший его программист загрузил в него неправильную выборку данных. Так же и Tesla, сбившая велосипедистку, не смогла ее правильно распознать из-за ошибки инженера».

Этого же мнения придерживается и антивирусный эксперт «Лаборатории Касперского» Алексей Маланов: «Всему виной ложные корреляции — когда алгоритм видит связь между событиями там, где ее на самом деле нет. Пример — «робот», который распределял в медицинском центре Университета Питтсбурга больных в очереди на прием и решил, что люди, страдающие астмой и пневмонией одновременно, могут подождать. Логика была такой: по статистике пациенты с таким сочетанием диагнозов умирают редко, а значит, можно не спешить, но дело в том, что не умирают они именно потому, что им всегда первым оказывают помощь. Информацию об этом алгоритму не предоставили, и он построил неверную логическую цепочку». Данные — это грубый материал, который еще нужно обработать и в правильном виде загрузить в машину.

«Ранние зачатки искусственного интеллекта появились в 70‑80‑е годы XX века, но тогда они не могли работать: не хватало вычислительных мощностей и не было больших данных, на которых можно было бы учить системы, — рассказывает член Консультативного совета Роскомнадзора, директор исполкома Национального Дельфийского совета России Артемий Понявин. — Сегодня же в интернете столько информации, что для систем машинного обучения созданы идеальные условия».

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Правила идеальной лжи: как говорить неправду и выглядеть убедительным Правила идеальной лжи: как говорить неправду и выглядеть убедительным

Обманывать так, чтобы другие поверили, — это тоже своего рода искусство

Psychologies
Как нужно мыть мужские волосы? Ответы на 9 главных вопросов, которые спасут ваши головы Как нужно мыть мужские волосы? Ответы на 9 главных вопросов, которые спасут ваши головы

Как выбрать шампунь? Как часто нужно мыть волосы? Нужен ли кондиционер?

Playboy
Пример заразителен Пример заразителен

Из-за отсутствия страха перед ВИЧ появились намеренно заразившиеся мужчины

GQ
Неудачный маркетинг: как Дональд Трамп обеднел на посту президента США Неудачный маркетинг: как Дональд Трамп обеднел на посту президента США

Правда ли, что Трамп участвовал в президентских выборах ради «маркетинга»

Forbes
Смешные деньги Смешные деньги

Как устроена империя Александра Маслякова

GQ
Огромная рыба-«oбманщик» найдена в США (и это сенсация) Огромная рыба-«oбманщик» найдена в США (и это сенсация)

Исполинская солнечная рыба удивила ученых – a открытие помог сделать Facebook

National Geographic
Человеческая комедия Человеческая комедия

GQ встретился с Сергеем Буруновым, который умеет смешить без видимых усилий

GQ
Неравные возможности. Как Йель и Стэнфорд оказались втянуты в коррупционный скандал Неравные возможности. Как Йель и Стэнфорд оказались втянуты в коррупционный скандал

В США разоблачили крупнейшую коррупционную схему поступления в элитные вузы

Forbes
Победа любой сценой Победа любой сценой

У каждой эпохи тот Гамлет, которого она заслуживает

GQ
Светлана Степанковская. Очень мобильная блондинка Светлана Степанковская. Очень мобильная блондинка

Интервью со Светланой Степанковской

Караван историй
Дачи не надо Дачи не надо

Герои GQ Travel выбрали пять отелей для дауншифтинга неподалеку от Москвы

GQ
Как супергерои из комиксов вдохновляют дизайнеров Как супергерои из комиксов вдохновляют дизайнеров

Женщина-кошка, Человек-паук и эстетика историй про людей со сверхспособностями

Vogue
Берегитесь женщин Берегитесь женщин

Андрей Подшибякин объясняет, почему #MeeToo — не сумасшествие, а норма

GQ
Польза и вред витамина Е для организма мужчины: почему он необходим? Польза и вред витамина Е для организма мужчины: почему он необходим?

Важнейший компонент вашего организма, влияющий на многие органы

Playboy
Тысячи и одна ночь Тысячи и одна ночь

Как Instagram стал каталогом секс-услуг, а Telegram — инструментом сутенеров

GQ
Дорога в никуда Дорога в никуда

Чем обернулся проект строительства скоростной железной дороги в Калифорнии

Forbes
Москва следам поверит Москва следам поверит

Шесть необычных маршрутов, раскрывающих Москву с неожиданных сторон

GQ
Время – деньги Время – деньги

Нюша упала в цене после декрета

StarHit
Самые смертельные пандемии от доисторических времен до XXI века Самые смертельные пандемии от доисторических времен до XXI века

Самые страшные заболевания в истории

Maxim
Актер, актриса и диктатор Актер, актриса и диктатор

Украина переживает последние недели перед судьбоносными президентскими выборами

Эксперт
Новое начало Новое начало

Разработка полноценной системы космического туризма

Популярная механика
Нежелательный пример? Почему Москва удивилась отставке Назарбаева Нежелательный пример? Почему Москва удивилась отставке Назарбаева

Какой пример подал соседям бывший президент Казахстана Нурсултан Назарбаев

Forbes
Неон-киллер Неон-киллер

Евгения Крегжде поразила нас в самое сердце

Maxim
Россиянин запатентовал футбол, в который можно играть вдвоем (фото и правила прилагаем) Россиянин запатентовал футбол, в который можно играть вдвоем (фото и правила прилагаем)

Наконец ты научишь кота чему-то новенькому!

Maxim
«В том, что вы не можете похудеть, виноваты не вы, а диеты» «В том, что вы не можете похудеть, виноваты не вы, а диеты»

Ивлин Трибол разработала методику интуитивного питания

Psychologies
Учимся читать: как помочь ребенку запомнить буквы Учимся читать: как помочь ребенку запомнить буквы

Какие игры и упражнения помогут ребенку запомнить буквы и овладеть чтением

Psychologies
Взятые высоты Взятые высоты

Взятые высоты: США признали Голаны израильскими

Огонёк
Александр Ионов Александр Ионов

Создатель андеграундного клуба «Ионотека»

Собака.ru
Кошелек «Яндекса» пополнился валютной десяткой Кошелек «Яндекса» пополнился валютной десяткой

На кого рассчитан новый сервис российского интернет-холдинга «Яндекс»

РБК
Бюрократия жалоб Бюрократия жалоб

Институт жалоб начинает конкурировать с судебной системой

Огонёк
Открыть в приложении