Живая сила в военных действиях становится все менее важной

CHIPHi-Tech

Война командных строк

Ведущие специалисты по робототехнике международного уровня предупреждают об ужасном потенциале интеллектуального оружия и требуют его запретить. Но можно ли вообще запретить машинам думать?

В 1899 году представители 26 стран собрались на Гаагской мирной конференции, чтобы принять несколько деклараций, в том числе «О запрещении метания снарядов и взрывчатых веществ с воздушных шаров или при помощи иных подобных новых способов». Данный запрет оказался пророческим. Уже в 1903 году братья Райт впервые совершили полет на самолете, оснащенном двигателем. Но на следующей мирной конференции в 1907 году запрет был фактически отменен: «Воспрещается… бомбардировать каким бы то ни было способом незащищенные города…». Такой ход позволил политикам развязать руки военным, которые уже почувствовали возможности ведения войны с воздуха, а небольшая оговорка о необходимости щадить незащищенные местности разбилась в пух и прах, когда в 1937 году была проведена массированная бомбардировка Герники.

Через 110 лет — и бесчисленное количество бомбежек спустя — оружие стало другим, однако некоторые проблемы остались теми же. Созревает новая технология, которая может трагически изменить жизнь людей и их смерть, — искусственный интеллект (ИИ). Машины, которые умеют думать, вероятно, хороши и в проведении боевых действий. По крайней мере до тех пор, пока они не развивают пацифистские идеи и сознание.

Машины с лицензией на убийство

Осознание огромного потенциала искусственного интеллекта активизировало элиту отрасли ИИ. В открытом письме к ООН такие специалисты в области ИИ, как немец Юрген Шмидхубер, и такие предприниматели, как глава Tesla Илон Маск, потребовали заняться решением проблемы летального оружия. По мнению Маска, конкуренция за превосходство в области ИИ «может стать причиной начала третьей мировой войны». Политика тоже не обошла этот вопрос стороной.

«Самый большой риск нашей цивилизации». Глава Tesla Илон Маск об угрозах автономного оружия: «У меня есть доступ к самым передовым разработкам в области ИИ, и я считаю, что людей должно беспокоить развитие таких технологий»

Но возможно ли вообще запретить или ограничить использование автономного оружия? Вопрос чрезвычайно запутанный, начиная с самого определения машин. В настоящее время используется большое количество терминов — от «боевых роботов» до «интеллектуального оружия». В политике и ученой среде часто используется определение «автономные системы летального оружия» (Lethal autonomous weapon systems — LAWS), также известные как «роботы-убийцы». «Автономные» — потому что система самостоятельно, без вмешательства человека, способна выполнять свою задачу и даже в незнакомых условиях принимать логичные решения. То есть БПЛА, которые используются для прицельной атаки по нажатию кнопки, в текущей их версии не подходят под определение роботов-убийц.

Испытанный симбиоз человека и машины. Дистанционно управляемые автоматы и частично автономные роботы сокращают риски для саперов-людей

Ограничения на летальное оружие, имеющее разрешение убивать, вызывает жаркие споры, поскольку отсюда появляются новые проблемы. Когда в боевых условиях робот идентифицирует противника, с точки зрения этических норм, пожалуй, нет никакой разницы между тем, кто его устраняет — машина самостоятельно или управляющий машиной за тысячу километров оператор. Вопрос будет состоять в другом: сможет ли боец из плоти и крови, принимающий решения, иметь подробную информацию и достаточное количество времени, чтобы отменить предложение машины о каком-либо действии?

В связи с этим эксперты говорят о так называемом надлежащем контроле со стороны человека (meaningful human control). В США использование данного определения зашло слишком далеко. Министерство обороны даже в одной из директив определяет проект по автономным системам летального оружия, который разрешает надлежащий контроль со стороны человека. «Надлежащий» значит следующее: конечное решение может принимать человек, но «может» вовсе не означает, что он должен его принимать. Споры вокруг семантических тонкостей доказывают, что США и некоторые страны из остальных примерно 45, работающих над автономным летальным оружием, наверняка не хотят, чтобы их разработки попали в список запретов ООН.

Надлежащий контроль со стороны человека. Под расплывчатой формулировкой США оставляют за собой возможность решать, какая роль будет отводиться солдатам

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Переток силы Переток силы

Чем полезен российский климат для развития альтернативной энергетики

Forbes
24 часа наедине с мужчиной 24 часа наедине с мужчиной

Всякий уважающий себя самец должен круглые сутки быть на высоте

Playboy
Горячая пора для конвейерных роликов Горячая пора для конвейерных роликов

Компания «Промтяжмаш» планирует удвоить производство конвейерных роликов

Эксперт
Андрей Лукашевич Андрей Лукашевич

Управляющий директор Delivery Club Андрей Лукашевич

GQ
Таргетирование и реальность Таргетирование и реальность

Чем на самом деле управляет Центральный банк

Эксперт
Быть влюбчивым после 50-ти – это ненормально Быть влюбчивым после 50-ти – это ненормально

Интервью с Алексеем Кортневым

Лиза
Городские цветы Городские цветы

Домашние растения помогут нам легче пережить зиму, если мы сначала поможем им

Добрые советы
Комсомольский комсомолец Комсомольский комсомолец

Уголок желтой прессы

Maxim
Выходи из комнаты Выходи из комнаты

Соверши гриль-вечеринку

Playboy
Вырваться из надоевшей роли Вырваться из надоевшей роли

Психодраматерапевт дает практические советы, как найти путь к свободе

Psychologies
Золотая Пенелопа Золотая Пенелопа

Пенелопа Крус рассказала о том, как снялась в эротической драме про ветчину

Esquire
Слишком много праздников Слишком много праздников

На зимний период в России, по разным подсчетам, приходится от 3 до 7 праздников

Psychologies
Практика равновесия Практика равновесия

Удерживаем полярности — равновесие и устремленность

Yoga Journal
Секреты съемок «Звездных Войн» Секреты съемок «Звездных Войн»

Все, что вы хотели знать о закулисье великой киносаги

CHIP
Зоодетективы Зоодетективы

Лаборатория, которая расследует преступления людей против природы

GEO
Со временем все проходит? Со временем все проходит?

Иногда прошлое преследует нас. Можем ли мы освободиться от него?

Psychologies
Какой видят Россию рабочие из Северной Кореи Какой видят Россию рабочие из Северной Кореи

«Больше всего в России его поразили асфальтированные дороги и электроснабжение»

Esquire
День согласия и примирения День согласия и примирения

Глеб Амуров препарирует главную новогоднюю примету

Glamour
Зима не близко Зима не близко

Во что поиграть в ожидании 8-го сезона «Игры престолов»

Игромания
Фортуна любит везучих Фортуна любит везучих

Как гарантированно привлечь удачу без глупых суеверий и магии

Maxim
Рукотворное взаимопонимание Рукотворное взаимопонимание

Искусственные языки

Мир Фантастики
Экспресс-уборка Экспресс-уборка

Алгоритм быстрой уборки перед приездом гостей

Домашний Очаг
Ex фактор Ex фактор

Сравнивать настоящих с бывшими – вредная привычка или тревожный сигнал?

Cosmopolitan
УАЗ Профи УАЗ Профи

Коммерческий грузовичок УАЗ Профи стоит от 750 000 рублей

АвтоМир
Зима надежды нашей Зима надежды нашей

У сборной России — великие планы и новая форма

Vogue
Lada Vesta SW Cross Lada Vesta SW Cross

Lada вошла в десятку любимейших автомобильных брендов наших соотечественников

Quattroruote
Знаки судьбы? Знаки судьбы?

Откуда берутся приметы и суеверия и почему мы до сих пор в них верим?

Лиза
Вуди Харрельсон Вуди Харрельсон

Вуди Харрельсон – дебошир и любимец режиссеров

Playboy
В долине мечтателей В долине мечтателей

Лидеры Кремниевой долины предлагают революционные идеи

CHIP
Бекс бьет правой Бекс бьет правой

Чем живет легендарный Дэвид Бекхэм после футбольной карьеры

GQ
Открыть в приложении