Боевые системы становятся все более автоматизированными. Беспилотники приземляются и запускаются самостоятельно, роботы обнаруживают и самостоятельно обезвреживают взрывные устройства, алгоритмы фильтруют массивы данных и могут не только предлагать цели, но и определять места, с которых можно нанести по ним наиболее точный удар, повествуют авторы публикации.
"Во время предвыборного мероприятия в 2013 году Ангела Меркель еще улыбалась, когда над сценой внезапно появился дрон. Ее телохранители были в ужасе. На прошлой неделе венесуэльский диктатор Николас Мадуро, по-видимому, был атакован во время публичного выступления двумя дронами, которые были заряжены пластидом. Будут ли в ближайшее время автономные дроны-убийцы сравнивать лица своих жертв со своей внутренней базой данных, а затем нападать на них самостоятельно?" - задаются вопросом Хаммерштайн и Розенбах.
Именно этого боятся почти 4000 ученых, инженеров и предпринимателей, исследующих искусственный интеллект. В открытом письме они пообещали не участвовать "в разработке, производстве, торговле или использовании смертоносного автономного оружия". В число подписавших письмо входят компания DeepMind, принадлежащая Google и занимающаяся развитием искусственного интеллекта, основатель Tesla Илон Маск и Университетский колледж Лондона, передает издание.
"Новую гонку вооружений, вероятно, вряд ли можно остановить, - продолжают авторы статьи. - Все больше государств инвестируют в создание боевых роботов. Многие из них оснащены оружием и становятся все более автономными, то есть могут выполнять задачи без участия человека".
Более 30 государств используют системы защиты от ракетных или артиллерийских обстрелов, которые реагируют настолько быстро, что люди вмешиваются только в случае чрезвычайной ситуации. Так, израильский беспилотник Harpy стал первым полностью автономным дроном, который часами может искать вражеские радиолокационные станции и осуществлять атаку на них без согласования. В Сирии россияне впервые использовали беспилотные боевые машины. 29 стран уже сейчас эксплуатируют вооруженные беспилотники, более десятка других стран хотят последовать их примеру, говорится в статье.
"Искусственный интеллект может сделать боевые системы быстрее, умнее и точнее, так как ни один человек не может за несколько секунд оценить огромные объемы данных, сделать прогноз и идентифицировать агрессоров или возможные цели. Однако решение о жизни и смерти пока еще принимает человек, а не машина. Но как долго это будет продолжаться? - рассуждают Хаммерштайн и Розенбах. - И что плохого в том, что в будущем машины могли бы самостоятельно принимать решения? Машина не испытывает ярости, она не жаждет мести, она не устает, она точна, она может предотвратить побочный ущерб. (...) Даже для правительств авторитарных государств становится все тяжелее оправдывать жертв войны перед населением. Тот, кто отправляет на бой машины, надеется защитить таким образом собственных солдат. И забывает, что новые технологии еще никогда не лишали войну ужаса".
Американский истребитель F-35 является первым боевым самолетом 5-го поколения. Россияне уже представили концепцию боевого летательного аппарата 6-го поколения под названием "Охотник", который будет беспилотным и сможет автономно выполнять любую боевую задачу. Однако это будущее, а сегодня F-35 представляет собой летающий компьютер, битком набитый датчиками. Роль второго пилота в самолете выполняет система Fusion, представляющая собой невидимого ассистента, который, благодаря своим алгоритмам, интерпретирует данные встроенных камер, радаров и сенсоров, обрабатывает их и таким образом заблаговременно распознает угрозы.
Одним из новых проектов американской военно-промышленной корпорации Lockheed Martin является автономный беспилотник MQ-25, который может убирать концевые части крыльев и взлетать с авианосца. Этот беспилотник должен будет заправлять F-35 в воздухе и одновременно доставлять на самолет новые ракеты, поддерживать его с помощью собственных сенсоров и сбивать с толку вражескую авиацию. И, конечно, в модифицированной версии он сам может превратиться в беспилотную боевую машину, говорится далее.
Ожесточенная гонка вооружений происходит между крупными военными державами в отношении подводных беспилотников, отмечают авторы статьи. Несколько месяцев назад президент России Владимир Путин объявил о разработке ядерной автономной подводной лодки-дрона, которая может оставаться под водой в течение нескольких месяцев. Китай уже тестирует собственные беспилотные военные самолеты "глайдеры". В 2016 году китайцы вытащили из Южно-Китайского моря американский подводный беспилотник - видимо, с целью украсть технологии.
Ядерные державы опасаются, что автономные подводные дроны могут отследить их атомный подводный флот и даже осуществить атаку в чрезвычайной ситуации. Эксперты уже много лет предупреждают, что новые роботы могут разрушить стратегическое преимущество ядерных вооруженных подводных лодок.
Армии промышленно развитых стран испытывают недостаток в молодых кадрах, связанный с проблемой старения населения. Автоматизация является одним из решений этой проблемы - так, численность экипажа фрегатов класса F-125 в бундесвере уже сократилась более чем в два раза, сообщает издание. По мнению американских экспертов, через 10-15 лет боевые подразделения будут состоять не из 1200, а из 250-300 солдат, которые будут управлять несколькими тысячами автоматических систем.
"Тренд к улучшенной, более дешевой и применимой в гражданской сфере робототехнике имеет нежелательный побочный эффект: таким странам, как Северная Корея, или террористическим организациям становится все легче приобрести опасное современное оружие. Группировки вроде ИГИЛ* или "Хамас" уже сейчас покупают коммерческие дроны за пару тысяч долларов и сами оснащают их оружием", - отмечают Хаммерштайн и Розенбах.
26 сентября 1983 года в тайном бункере Серпухов-15 под Москвой сработала тревога. Система сообщила, что американцы запустили 5 межконтинентальных ракет. Подполковник Станислав Петров, последовав собственной интуиции, сообщил руководству о ложной тревоге. Позднее выяснилось, что облака отразили солнечный свет и спровоцировали включение сигнала тревоги. Решение Петрова, принятое на основе интуиции, спасло человечество от ядерного армагеддона.
Как поступила бы в этой ситуации машина? Программное обеспечение может решать лишь те проблемы, которые можно отразить в математических моделях. Но можно ли заключить в формулу интуицию Петрова? Чем абстрактнее задача, тем тяжелее будет сформулировать проблему на языке математики. Практически неразрешимыми являются задачи, которые можно решить только совместно с человеком, так как человеческое поведение предсказать тяжело, подчеркивают журналисты.
Уже четыре года государства проводят неофициальные переговоры об использовании автономных боевых систем, с ноября 2017 года проходят встречи официальной группы экспертов. "Фронты однозначны. С одной стороны стоят такие государства, как Бразилия, Нигерия и Австрия, желающие достичь запрета автономных боевых систем на уровне международного права. С другой - страны вроде России, США и Израиля, категорически выступающие против запрета".
"Может быть, нам стоит запретить не боевых роботов, а человеческих солдат", - цитируют журналисты в заключение слова Педро Домингоса, эксперта по искусственному интеллекту из США.