Живая сила в военных действиях становится все менее важной

CHIPHi-Tech

Война командных строк

Ведущие специалисты по робототехнике международного уровня предупреждают об ужасном потенциале интеллектуального оружия и требуют его запретить. Но можно ли вообще запретить машинам думать?

В 1899 году представители 26 стран собрались на Гаагской мирной конференции, чтобы принять несколько деклараций, в том числе «О запрещении метания снарядов и взрывчатых веществ с воздушных шаров или при помощи иных подобных новых способов». Данный запрет оказался пророческим. Уже в 1903 году братья Райт впервые совершили полет на самолете, оснащенном двигателем. Но на следующей мирной конференции в 1907 году запрет был фактически отменен: «Воспрещается… бомбардировать каким бы то ни было способом незащищенные города…». Такой ход позволил политикам развязать руки военным, которые уже почувствовали возможности ведения войны с воздуха, а небольшая оговорка о необходимости щадить незащищенные местности разбилась в пух и прах, когда в 1937 году была проведена массированная бомбардировка Герники.

Через 110 лет — и бесчисленное количество бомбежек спустя — оружие стало другим, однако некоторые проблемы остались теми же. Созревает новая технология, которая может трагически изменить жизнь людей и их смерть, — искусственный интеллект (ИИ). Машины, которые умеют думать, вероятно, хороши и в проведении боевых действий. По крайней мере до тех пор, пока они не развивают пацифистские идеи и сознание.

Машины с лицензией на убийство

Осознание огромного потенциала искусственного интеллекта активизировало элиту отрасли ИИ. В открытом письме к ООН такие специалисты в области ИИ, как немец Юрген Шмидхубер, и такие предприниматели, как глава Tesla Илон Маск, потребовали заняться решением проблемы летального оружия. По мнению Маска, конкуренция за превосходство в области ИИ «может стать причиной начала третьей мировой войны». Политика тоже не обошла этот вопрос стороной.

«Самый большой риск нашей цивилизации». Глава Tesla Илон Маск об угрозах автономного оружия: «У меня есть доступ к самым передовым разработкам в области ИИ, и я считаю, что людей должно беспокоить развитие таких технологий»

Но возможно ли вообще запретить или ограничить использование автономного оружия? Вопрос чрезвычайно запутанный, начиная с самого определения машин. В настоящее время используется большое количество терминов — от «боевых роботов» до «интеллектуального оружия». В политике и ученой среде часто используется определение «автономные системы летального оружия» (Lethal autonomous weapon systems — LAWS), также известные как «роботы-убийцы». «Автономные» — потому что система самостоятельно, без вмешательства человека, способна выполнять свою задачу и даже в незнакомых условиях принимать логичные решения. То есть БПЛА, которые используются для прицельной атаки по нажатию кнопки, в текущей их версии не подходят под определение роботов-убийц.

Испытанный симбиоз человека и машины. Дистанционно управляемые автоматы и частично автономные роботы сокращают риски для саперов-людей

Ограничения на летальное оружие, имеющее разрешение убивать, вызывает жаркие споры, поскольку отсюда появляются новые проблемы. Когда в боевых условиях робот идентифицирует противника, с точки зрения этических норм, пожалуй, нет никакой разницы между тем, кто его устраняет — машина самостоятельно или управляющий машиной за тысячу километров оператор. Вопрос будет состоять в другом: сможет ли боец из плоти и крови, принимающий решения, иметь подробную информацию и достаточное количество времени, чтобы отменить предложение машины о каком-либо действии?

В связи с этим эксперты говорят о так называемом надлежащем контроле со стороны человека (meaningful human control). В США использование данного определения зашло слишком далеко. Министерство обороны даже в одной из директив определяет проект по автономным системам летального оружия, который разрешает надлежащий контроль со стороны человека. «Надлежащий» значит следующее: конечное решение может принимать человек, но «может» вовсе не означает, что он должен его принимать. Споры вокруг семантических тонкостей доказывают, что США и некоторые страны из остальных примерно 45, работающих над автономным летальным оружием, наверняка не хотят, чтобы их разработки попали в список запретов ООН.

Надлежащий контроль со стороны человека. Под расплывчатой формулировкой США оставляют за собой возможность решать, какая роль будет отводиться солдатам

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Добро пожаловать в машину! Добро пожаловать в машину!

Оправдана ли суета вокруг дополненной реальности

CHIP
Бастионы просят огня Бастионы просят огня

Мексиканский Тулум как альтернатива Сен-Барту

Tatler
Нобелевский практикум Нобелевский практикум

Нобелевские премии по физике, химии, медицине и физиологии – награды за практику

Популярная механика
«Чёрные пятна стушёвываются…» «Чёрные пятна стушёвываются…»

Большевики декларировали создание общества равенства и справедливости

Дилетант
От вещи к вещи От вещи к вещи

Проблемы интернета вещей только начинаются

CHIP
Идея! Идея!

Кататься на лыжах на юге, со­здать себе двойника, одевать­ся зимой по-летнему

Maxim
Бекс бьет правой Бекс бьет правой

Чем живет легендарный Дэвид Бекхэм после футбольной карьеры

GQ
Я соперничаю с женщинами Я соперничаю с женщинами

Если речь не о любовном треугольнике, казалось бы, зачем нам вступать в борьбу

Psychologies
Больше не надо Больше не надо

Что делать, если партнер настроен на секс, а вам этого не особенно хочется?

Добрые советы
Сменила профиль Сменила профиль

Эмбер Хёрд убедительно играет роль иконы ЛГБТ и феминизма

Tatler
Большая энциклопедия джентльмена. Том XVIII Большая энциклопедия джентльмена. Том XVIII

Как вести себя в кругу родственников

GQ
Lada Vesta SW Cross Lada Vesta SW Cross

Lada вошла в десятку любимейших автомобильных брендов наших соотечественников

Quattroruote
Вуди Харрельсон Вуди Харрельсон

Вуди Харрельсон – дебошир и любимец режиссеров

Playboy
Я и моя собака Я и моя собака

Почему они для нас так много значат?

Psychologies
Лидия Сейфуллина Лидия Сейфуллина

Лидия Сейфуллина глазами Дмитрия Быкова

Дилетант
Хлеб на зрелища Хлеб на зрелища

10 самых важных спортивных сделок 2017 года

Forbes
Выходцы из среднего класса Выходцы из среднего класса

Hyundai Elantra – Toyota Corolla

АвтоМир
Maserati Levante Maserati Levante

Дизель V6 наделяет «Трезубец» недюжинным темпераментом

Quattroruote
Одаренный ребенок — повод для беспокойства? Одаренный ребенок — повод для беспокойства?

Некоторые дети с раннего детства проявляют необычайно высокие способности — к музыке или математике, или какой-то другой деятельности. На них возлагают особые надежды. Но лишь 3-5% удается эти надежды оправдать. Что происходит с остальными? И какие ошибки допускают родители? На вопросы Psychologies отвечает детский психолог, доктор психологических наук Александр Венгер.

Psychologies
Star и млад Star и млад

Спектакль «До и после», который поддержали Театр Наций и фестиваль «Территория»

СНОБ
Стивен Ридли Стивен Ридли

Пианист, который распрощался с богатой жизнью, чтобы стать счастливым

Elle
Он такой Один Он такой Один

Интервью с Одином Байроном

СНОБ
Птенец-задира Птенец-задира

Кукушата-разбойники

National Geographic
Опять одна реклама! Опять одна реклама!

Реклама была такой интересной, что ей посвящали це­лые статьи в журналах

Maxim
Очевидные вещи Очевидные вещи

Полный шкаф, а надеть нечего — знакомая ситуация?

Psychologies
Дань вымершим Дань вымершим

Голубь в роли каракары

National Geographic
Ураганная энергия Ураганная энергия

Как направить в мирное русло энергию ураганов

Популярная механика
11 тичерз-курсов 11 тичерз-курсов

Куда пойти учиться, чтобы стать преподавателем йоги

Yoga Journal
Искусственный интеллект глупее пчелы. Пока Искусственный интеллект глупее пчелы. Пока

Cо временем компьютерные нейросети станут умнее человека

Forbes
Зоодетективы Зоодетективы

Лаборатория, которая расследует преступления людей против природы

GEO
Открыть в приложении