Живая сила в военных действиях становится все менее важной

CHIPHi-Tech

Война командных строк

Ведущие специалисты по робототехнике международного уровня предупреждают об ужасном потенциале интеллектуального оружия и требуют его запретить. Но можно ли вообще запретить машинам думать?

В 1899 году представители 26 стран собрались на Гаагской мирной конференции, чтобы принять несколько деклараций, в том числе «О запрещении метания снарядов и взрывчатых веществ с воздушных шаров или при помощи иных подобных новых способов». Данный запрет оказался пророческим. Уже в 1903 году братья Райт впервые совершили полет на самолете, оснащенном двигателем. Но на следующей мирной конференции в 1907 году запрет был фактически отменен: «Воспрещается… бомбардировать каким бы то ни было способом незащищенные города…». Такой ход позволил политикам развязать руки военным, которые уже почувствовали возможности ведения войны с воздуха, а небольшая оговорка о необходимости щадить незащищенные местности разбилась в пух и прах, когда в 1937 году была проведена массированная бомбардировка Герники.

Через 110 лет — и бесчисленное количество бомбежек спустя — оружие стало другим, однако некоторые проблемы остались теми же. Созревает новая технология, которая может трагически изменить жизнь людей и их смерть, — искусственный интеллект (ИИ). Машины, которые умеют думать, вероятно, хороши и в проведении боевых действий. По крайней мере до тех пор, пока они не развивают пацифистские идеи и сознание.

Машины с лицензией на убийство

Осознание огромного потенциала искусственного интеллекта активизировало элиту отрасли ИИ. В открытом письме к ООН такие специалисты в области ИИ, как немец Юрген Шмидхубер, и такие предприниматели, как глава Tesla Илон Маск, потребовали заняться решением проблемы летального оружия. По мнению Маска, конкуренция за превосходство в области ИИ «может стать причиной начала третьей мировой войны». Политика тоже не обошла этот вопрос стороной.

«Самый большой риск нашей цивилизации». Глава Tesla Илон Маск об угрозах автономного оружия: «У меня есть доступ к самым передовым разработкам в области ИИ, и я считаю, что людей должно беспокоить развитие таких технологий»

Но возможно ли вообще запретить или ограничить использование автономного оружия? Вопрос чрезвычайно запутанный, начиная с самого определения машин. В настоящее время используется большое количество терминов — от «боевых роботов» до «интеллектуального оружия». В политике и ученой среде часто используется определение «автономные системы летального оружия» (Lethal autonomous weapon systems — LAWS), также известные как «роботы-убийцы». «Автономные» — потому что система самостоятельно, без вмешательства человека, способна выполнять свою задачу и даже в незнакомых условиях принимать логичные решения. То есть БПЛА, которые используются для прицельной атаки по нажатию кнопки, в текущей их версии не подходят под определение роботов-убийц.

Испытанный симбиоз человека и машины. Дистанционно управляемые автоматы и частично автономные роботы сокращают риски для саперов-людей

Ограничения на летальное оружие, имеющее разрешение убивать, вызывает жаркие споры, поскольку отсюда появляются новые проблемы. Когда в боевых условиях робот идентифицирует противника, с точки зрения этических норм, пожалуй, нет никакой разницы между тем, кто его устраняет — машина самостоятельно или управляющий машиной за тысячу километров оператор. Вопрос будет состоять в другом: сможет ли боец из плоти и крови, принимающий решения, иметь подробную информацию и достаточное количество времени, чтобы отменить предложение машины о каком-либо действии?

В связи с этим эксперты говорят о так называемом надлежащем контроле со стороны человека (meaningful human control). В США использование данного определения зашло слишком далеко. Министерство обороны даже в одной из директив определяет проект по автономным системам летального оружия, который разрешает надлежащий контроль со стороны человека. «Надлежащий» значит следующее: конечное решение может принимать человек, но «может» вовсе не означает, что он должен его принимать. Споры вокруг семантических тонкостей доказывают, что США и некоторые страны из остальных примерно 45, работающих над автономным летальным оружием, наверняка не хотят, чтобы их разработки попали в список запретов ООН.

Надлежащий контроль со стороны человека. Под расплывчатой формулировкой США оставляют за собой возможность решать, какая роль будет отводиться солдатам

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Переток силы Переток силы

Чем полезен российский климат для развития альтернативной энергетики

Forbes
Хороший, плохой, злой Хороший, плохой, злой

Как справиться с детской агрессией?

Домашний Очаг
50 быстрорастущих компаний России. Часть 2 50 быстрорастущих компаний России. Часть 2

50 быстрорастущих компаний России. Часть 2

РБК
Политическая география Тревора Паглена Политическая география Тревора Паглена

Жизнь в исполнении Паглена выглядит не слишком радостным киберпанком

Популярная механика
Город-сказка, город-мечта Город-сказка, город-мечта

Как поменяются правила жизни в мегаполисах будущего?

GQ
Высокие отношения Высокие отношения

Где кататься зимой?

Добрые советы
Быть влюбчивым после 50-ти – это ненормально Быть влюбчивым после 50-ти – это ненормально

Интервью с Алексеем Кортневым

Лиза
Богомолов Богомолов

Мы обсудили с режиссером Константином Богомоловым фобии и комплексы

Esquire
Honda Pilot Honda Pilot

Десять квадратных метров внутреннего пространства

АвтоМир
Допинг национального масштаба Допинг национального масштаба

5 декабря МОК отстранил сборную России от участия в зимней Олимпиаде-2018

РБК
Большая энциклопедия джентльмена. Том XVIII Большая энциклопедия джентльмена. Том XVIII

Как вести себя в кругу родственников

GQ
Перекресток 2.0: Музыка и искусственный интеллект Перекресток 2.0: Музыка и искусственный интеллект

Как искусственный интеллект повлияет на развитие мировой музыки?

Playboy
Ален Дюкасс Ален Дюкасс

Правила жизни ресторатора Алена Дюкасса

Esquire
10 дней каникул в Таиланде 10 дней каникул в Таиланде

Семейные каникулы в этой стране запомнятся надолго и детям, и взрослым

Домашний Очаг
Я и моя собака Я и моя собака

Почему они для нас так много значат?

Psychologies
Правила отцовского клуба Правила отцовского клуба

О том, как быть отцом тройни

GQ
Хью Джекман Хью Джекман

Правила жизни Хью Джекмана

Esquire
Женщина на грани Женщина на грани

Актриса Юлия Пересильд согласилась остаться без формы

Esquire
Поколение X Поколение X

Как жить в одном мире с представителями поколения Икс?

GQ
Макс атакует Макс атакует

Максим Виторган — о театре и кино, вдумчивом характере и жизни с Ксенией Собчак

Vogue
Под крышей дома своего Под крышей дома своего

Старинный дом Клаудии Шиффер и Мэтью Вона в сельской Англии

Vogue
71 факт о главном плейбое планеты 71 факт о главном плейбое планеты

Лучшее о жизни культурного гиганта и главного плейбоя планеты Хью Хефнера

Playboy
Одаренный ребенок — повод для беспокойства? Одаренный ребенок — повод для беспокойства?

Некоторые дети с раннего детства проявляют необычайно высокие способности — к музыке или математике, или какой-то другой деятельности. На них возлагают особые надежды. Но лишь 3-5% удается эти надежды оправдать. Что происходит с остальными? И какие ошибки допускают родители? На вопросы Psychologies отвечает детский психолог, доктор психологических наук Александр Венгер.

Psychologies
Если не кот, то кто? Если не кот, то кто?

Какого питомца завести, если синих змей никто, кроме тебя, не видит

Maxim
Нагорная проповедь на YouTube Нагорная проповедь на YouTube

Питер Брэдшоу рассказывает, как конференции TED превратились в культ

Esquire
Стороны Света Стороны Света

Отель месяца, Южный полюс, Майами, Рим

Tatler
Летающий автомобиль Атаманова Летающий автомобиль Атаманова

Пятиместный автомобиль, первый полет которого планируется уже в сентябре

Популярная механика
«Страсть должна не сжигать, а питать» «Страсть должна не сжигать, а питать»

Ежедневные перегрузки и ждущие решения проблемы делают для нас соблазнительной формулу «будь проще». Но психоаналитик Андрей Россохин предостерегает против крайностей.

Psychologies
Ой, всё! Как я вернулась в прошлое Ой, всё! Как я вернулась в прошлое

Как посмотреть в лицо давнишним страхам и разобраться с обидами

Cosmopolitan
Робот по имени Федор Робот по имени Федор

Как магнитогорская «Андроидная техника» создала робота по имени Федор

РБК
Открыть в приложении