Живая сила в военных действиях становится все менее важной

CHIPHi-Tech

Война командных строк

Ведущие специалисты по робототехнике международного уровня предупреждают об ужасном потенциале интеллектуального оружия и требуют его запретить. Но можно ли вообще запретить машинам думать?

В 1899 году представители 26 стран собрались на Гаагской мирной конференции, чтобы принять несколько деклараций, в том числе «О запрещении метания снарядов и взрывчатых веществ с воздушных шаров или при помощи иных подобных новых способов». Данный запрет оказался пророческим. Уже в 1903 году братья Райт впервые совершили полет на самолете, оснащенном двигателем. Но на следующей мирной конференции в 1907 году запрет был фактически отменен: «Воспрещается… бомбардировать каким бы то ни было способом незащищенные города…». Такой ход позволил политикам развязать руки военным, которые уже почувствовали возможности ведения войны с воздуха, а небольшая оговорка о необходимости щадить незащищенные местности разбилась в пух и прах, когда в 1937 году была проведена массированная бомбардировка Герники.

Через 110 лет — и бесчисленное количество бомбежек спустя — оружие стало другим, однако некоторые проблемы остались теми же. Созревает новая технология, которая может трагически изменить жизнь людей и их смерть, — искусственный интеллект (ИИ). Машины, которые умеют думать, вероятно, хороши и в проведении боевых действий. По крайней мере до тех пор, пока они не развивают пацифистские идеи и сознание.

Машины с лицензией на убийство

Осознание огромного потенциала искусственного интеллекта активизировало элиту отрасли ИИ. В открытом письме к ООН такие специалисты в области ИИ, как немец Юрген Шмидхубер, и такие предприниматели, как глава Tesla Илон Маск, потребовали заняться решением проблемы летального оружия. По мнению Маска, конкуренция за превосходство в области ИИ «может стать причиной начала третьей мировой войны». Политика тоже не обошла этот вопрос стороной.

«Самый большой риск нашей цивилизации». Глава Tesla Илон Маск об угрозах автономного оружия: «У меня есть доступ к самым передовым разработкам в области ИИ, и я считаю, что людей должно беспокоить развитие таких технологий»

Но возможно ли вообще запретить или ограничить использование автономного оружия? Вопрос чрезвычайно запутанный, начиная с самого определения машин. В настоящее время используется большое количество терминов — от «боевых роботов» до «интеллектуального оружия». В политике и ученой среде часто используется определение «автономные системы летального оружия» (Lethal autonomous weapon systems — LAWS), также известные как «роботы-убийцы». «Автономные» — потому что система самостоятельно, без вмешательства человека, способна выполнять свою задачу и даже в незнакомых условиях принимать логичные решения. То есть БПЛА, которые используются для прицельной атаки по нажатию кнопки, в текущей их версии не подходят под определение роботов-убийц.

Испытанный симбиоз человека и машины. Дистанционно управляемые автоматы и частично автономные роботы сокращают риски для саперов-людей

Ограничения на летальное оружие, имеющее разрешение убивать, вызывает жаркие споры, поскольку отсюда появляются новые проблемы. Когда в боевых условиях робот идентифицирует противника, с точки зрения этических норм, пожалуй, нет никакой разницы между тем, кто его устраняет — машина самостоятельно или управляющий машиной за тысячу километров оператор. Вопрос будет состоять в другом: сможет ли боец из плоти и крови, принимающий решения, иметь подробную информацию и достаточное количество времени, чтобы отменить предложение машины о каком-либо действии?

В связи с этим эксперты говорят о так называемом надлежащем контроле со стороны человека (meaningful human control). В США использование данного определения зашло слишком далеко. Министерство обороны даже в одной из директив определяет проект по автономным системам летального оружия, который разрешает надлежащий контроль со стороны человека. «Надлежащий» значит следующее: конечное решение может принимать человек, но «может» вовсе не означает, что он должен его принимать. Споры вокруг семантических тонкостей доказывают, что США и некоторые страны из остальных примерно 45, работающих над автономным летальным оружием, наверняка не хотят, чтобы их разработки попали в список запретов ООН.

Надлежащий контроль со стороны человека. Под расплывчатой формулировкой США оставляют за собой возможность решать, какая роль будет отводиться солдатам

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Переток силы Переток силы

Чем полезен российский климат для развития альтернативной энергетики

Forbes
Космические Одиссеи Космические Одиссеи

Русский милиционер и американский двоечник провели на орбите Земли почти год

Esquire
Властелин пива и кетчупа Властелин пива и кетчупа

Как сделал состояние самый богатый бразильский швейцарец

Деньги
Лучше гор могут быть Лучше гор могут быть

На этих зимних курортах вы отлично проведете время

Glamour
Двоякое впечатление Двоякое впечатление

Редактор GQ два с половиной месяца занимался спортом и сидел на диете

GQ
Пицца высокого полета Пицца высокого полета

Энциклопедия самых заметных российских бизнес-проектов. «Додо Пицца»

Esquire
Я и моя собака Я и моя собака

Почему они для нас так много значат?

Psychologies
Детское время Детское время

Наши героини открыли свое дело во время декрета

Cosmopolitan
Хватает ли тебе эстрогенов? Хватает ли тебе эстрогенов?

Что делать, если возник дефицит эстрогенов

Лиза
Новогодние праздники: как провести их с пользой для здоровья? Новогодние праздники: как провести их с пользой для здоровья?

Как распорядиться свободным временем во время беременности

9 месяцев
Искусственный интеллект глупее пчелы. Пока Искусственный интеллект глупее пчелы. Пока

Cо временем компьютерные нейросети станут умнее человека

Forbes
Бьорк – значит любит Бьорк – значит любит

Бьорк о том, что утопично в этом мире и как будет выглядеть новая эра феминизма

Esquire
Стороны Света Стороны Света

Отель месяца, Южный полюс, Майами, Рим

Tatler
Выходцы из среднего класса Выходцы из среднего класса

Hyundai Elantra – Toyota Corolla

АвтоМир
Париться правильно! Париться правильно!

Тепло, вода, пар, запахи трав… Зимой это особенно соблазнительно

Psychologies
Женщина на грани Женщина на грани

Актриса Юлия Пересильд согласилась остаться без формы

Esquire
Опять одна реклама! Опять одна реклама!

Реклама была такой интересной, что ей посвящали це­лые статьи в журналах

Maxim
Крепкая любовь Крепкая любовь

Все о кофе

Добрые советы
Бастионы просят огня Бастионы просят огня

Мексиканский Тулум как альтернатива Сен-Барту

Tatler
Вуди Харрельсон Вуди Харрельсон

Вуди Харрельсон – дебошир и любимец режиссеров

Playboy
Поколение X Поколение X

Как жить в одном мире с представителями поколения Икс?

GQ
Renault Koleos Renault Koleos

Большой французский кроссовер вернулся, и у него совсем другие амбиции

Quattroruote
Клаустрофобия Клаустрофобия

Новый пугающий рассказ от мастера психологических триллеров Марии Галиной

Playboy
“Я развелась, чтобы служить своему счастью” “Я развелась, чтобы служить своему счастью”

Она вышла замуж по любви, родила 11 детей и развелась

Psychologies
Хью Джекман Хью Джекман

Правила жизни Хью Джекмана

Esquire
Звездный билет Звездный билет

Человечество опять мечтает о Луне, куда переместятся автомобильные гонки

Quattroruote
Остров — чистый изумруд Остров — чистый изумруд

Рецепт – это тоже путешествие

Psychologies
Мехико Мехико

Мехико – один из первых испанских городов на континенте

Esquire
Сладких снов Сладких снов

Почему здоровый сон полезен

Cosmopolitan
Особенности спорта в зимний период Особенности спорта в зимний период

Физическая активность в холодное время даже важнее и полезнее, чем в теплое

Psychologies
Открыть в приложении