Война командных строк
Ведущие специалисты по робототехнике международного уровня предупреждают об ужасном потенциале интеллектуального оружия и требуют его запретить. Но можно ли вообще запретить машинам думать?
В 1899 году представители 26 стран собрались на Гаагской мирной конференции, чтобы принять несколько деклараций, в том числе «О запрещении метания снарядов и взрывчатых веществ с воздушных шаров или при помощи иных подобных новых способов». Данный запрет оказался пророческим. Уже в 1903 году братья Райт впервые совершили полет на самолете, оснащенном двигателем. Но на следующей мирной конференции в 1907 году запрет был фактически отменен: «Воспрещается… бомбардировать каким бы то ни было способом незащищенные города…». Такой ход позволил политикам развязать руки военным, которые уже почувствовали возможности ведения войны с воздуха, а небольшая оговорка о необходимости щадить незащищенные местности разбилась в пух и прах, когда в 1937 году была проведена массированная бомбардировка Герники.
Через 110 лет — и бесчисленное количество бомбежек спустя — оружие стало другим, однако некоторые проблемы остались теми же. Созревает новая технология, которая может трагически изменить жизнь людей и их смерть, — искусственный интеллект (ИИ). Машины, которые умеют думать, вероятно, хороши и в проведении боевых действий. По крайней мере до тех пор, пока они не развивают пацифистские идеи и сознание.
Машины с лицензией на убийство
Осознание огромного потенциала искусственного интеллекта активизировало элиту отрасли ИИ. В открытом письме к ООН такие специалисты в области ИИ, как немец Юрген Шмидхубер, и такие предприниматели, как глава Tesla Илон Маск, потребовали заняться решением проблемы летального оружия. По мнению Маска, конкуренция за превосходство в области ИИ «может стать причиной начала третьей мировой войны». Политика тоже не обошла этот вопрос стороной.
Но возможно ли вообще запретить или ограничить использование автономного оружия? Вопрос чрезвычайно запутанный, начиная с самого определения машин. В настоящее время используется большое количество терминов — от «боевых роботов» до «интеллектуального оружия». В политике и ученой среде часто используется определение «автономные системы летального оружия» (Lethal autonomous weapon systems — LAWS), также известные как «роботы-убийцы». «Автономные» — потому что система самостоятельно, без вмешательства человека, способна выполнять свою задачу и даже в незнакомых условиях принимать логичные решения. То есть БПЛА, которые используются для прицельной атаки по нажатию кнопки, в текущей их версии не подходят под определение роботов-убийц.
Ограничения на летальное оружие, имеющее разрешение убивать, вызывает жаркие споры, поскольку отсюда появляются новые проблемы. Когда в боевых условиях робот идентифицирует противника, с точки зрения этических норм, пожалуй, нет никакой разницы между тем, кто его устраняет — машина самостоятельно или управляющий машиной за тысячу километров оператор. Вопрос будет состоять в другом: сможет ли боец из плоти и крови, принимающий решения, иметь подробную информацию и достаточное количество времени, чтобы отменить предложение машины о каком-либо действии?
В связи с этим эксперты говорят о так называемом надлежащем контроле со стороны человека (meaningful human control). В США использование данного определения зашло слишком далеко. Министерство обороны даже в одной из директив определяет проект по автономным системам летального оружия, который разрешает надлежащий контроль со стороны человека. «Надлежащий» значит следующее: конечное решение может принимать человек, но «может» вовсе не означает, что он должен его принимать. Споры вокруг семантических тонкостей доказывают, что США и некоторые страны из остальных примерно 45, работающих над автономным летальным оружием, наверняка не хотят, чтобы их разработки попали в список запретов ООН.