Главная » 2021 » Март » 19
14:00

Третья военная революция: машинный интеллект не должен быть с оружием

Третья военная революция: машинный интеллект не должен быть с оружием
Главный тренд XXI века


Несмотря на всю неопределенность самого термина «искусственный интеллект» (далее ИИ), все предпосылки к появлению высокопроизводительных и самообучающихся боевых систем в армиях мира давно созданы.

Если бы ИИ не существовал, его все равно пришлось бы придумать. Сейчас практически во всех сферах человеческой жизни ежесекундно генерируется гигантский объем информации, которую просто нечем перерабатывать.

И военное дело здесь далеко не исключение – достаточно вспомнить конфликт в Нагорном Карабахе, чтобы понять истинные масштабы информационной насыщенности военных действий.

Поток фото-, видео- и радиолокационных данных, а также аудио- и текстовых сообщений становятся главными на поле. Только сейчас можно перефразировать известное выражение
 

«Кто владеет информацией, владеет миром»


в современное
 

«Кто умеет быстро анализировать информацию, владеет миром».


А для оперативной обработки «больших данных» (или big bata) требуются очень серьезные технологии. Такие как искусственные нейронные сети, способные к самообучению без участия оператора. Важные преимуществом нейронных сетей является способность выявлять закономерности на основании данных, отсутствующих в изначальном обучающем коде.

Для военных особую важность играет потенциальное умение ИИ работать с неполными, «зашумленными» или искаженными данными. Именно поэтому в настоящее время нейронные сети с глубоким обучением ждут в системах видовой разведки для быстрого анализа видео- и фотоматериалов. Как отмечают в военных ведомствах, задачи, на которые уходили месяцы работы десятков дешифраторов, ИИ решает за секунды.
 


 


Однако простой анализ массивов данных уже даже сейчас кажется недостаточным для военных операций – требуется
 

«прогнозирование возможных действий»


и
 

«прогнозирование ответных реакций»


потенциальной цели.

На основании данных «умозаключений» оператор будет принимать решение об открытии огня. Это серьезно ускорит ход наступательных операций.

Для примера – несколько лет назад в ходе операции «Несокрушимая свобода» беспилотник MQ-1 Predator вышел на вражескую колонну техники. Но пока оператор оценивал принадлежность и решался на запуск ракеты, техника вышла из зоны поражения. И это далеко не единственный пример.

Применение ИИ в данном случае позволило бы оперативно составить прогноз относительно перспектив и времени нанесение удара. Но и здесь есть подводные камни.

Комитет Красного Креста серьезно обеспокоен внедрением ИИ в беспилотную технику и (самое главное) уровнем доверия ему со стороны человека. Например, может ли человек, копающий землю недалеко от дороги, быть с надежностью определен как лицо, устанавливающее самодельное взрывное устройство, исключительно на основании анализа видеосигнала нейронными сетями?

Сейчас операторы ударных дронов сплошь и рядом не осознают реальности происходящего на поле боя (Playstation mentality). А если им в этом будет помогать ИИ?

И без того заметно упрощенная задача уничтожения, станет еще проще для исполнения.
 

Автоматизируй это!


Технологические и стратегические вызовы заставляют мировые державы постепенно переводить армии на рельсы робототехники.

К примеру, в США «Третья компенсационная стратегия» обещает превратить вооруженные силы в армию роботов уже через тридцать лет. А через десять лет у Пентагона каждый третий самолет будет беспилотным.

В России также стараются не отставать. И планируют в ближайшие годы принять в армию несколько десятков новых образцов вооружений на удаленном управлении. Однако ни в США, ни в России до сих пор нет полноценных разведывательных и ударных систем, управляемых ИИ. Во многом это связано с кризисом ответственности. Если с ошибками первого рода, то есть неверно отмененные удары по противнику, еще как-то можно смириться, то с ошибками второго рода все гораздо сложнее. В последнем случае машина решается либо на «дружественный огонь» (Friendly fire), либо уничтожает гражданских, то есть совершает военное преступление.
 


 


В этой ситуации до конца не понятно, кто несет ответственность за такое деяние – разработчик ПО или командир, отдавший приказ на использование системы.

Схожая ситуация сложилась в автомобильной отрасли, в которой уже несколько десятилетий грезят полностью автономными дронами. Была даже разработана классификация уровней автоматизации, вполне применимая для военной сферы.

На нулевом уровне автомобиль представляет собой условный УАЗ-496, в котором все подконтрольно водителю и отсутствуют мехатронные помощники – ESP, ABS и т.д.

На высшем пятом уровне у колесного дрона даже рулевое колесо отсутствует (либо установлено в качестве платной опции). И во всех ситуациях движение контролируется автопилотом. В настоящее время только японская Honda смогла сертифицировать серийный автопилот третьего уровня.

Эта техника «условной автоматизации» не способна брать на себя управление в опасной ситуации. Да и в обычных условиях работает далеко не всегда. Система Traffic Jam Pilot автопилотирует машину в пробках, удерживает в пределах полосы на автомагистрали и осуществляет обгоны. Руки с руля убрать можно, но вот взгляд с дороги отводить нельзя – за этим следят камеры. Автопилот третьего уровня очень недешев и повышает итоговую стоимость машины в полтора раза.

При этом стоит помнить, автопилоты уже сейчас можно полноценно внедрять в серийное производство. И они действительно серьезно снизят смертность на дорогах. Но вот юридические и этические проблемы от ошибок (в том числе и смертельных) ИИ ставят автокомпании в тупик.
 

ИИ не должен быть с оружием


В военной сфере ситуация с разработками полностью автономных боевых систем также далека до идеала.

И дело даже не в техническом аспекте вопроса.

С одной стороны, эксперты-скептики указывают на потенциальную способность самообучающихся систем на нейронных сетях наносить упреждающие удары. К примеру, ИИ увидит у противника реальную или мнимую уязвимость – чем это не повод нанести первый обезоруживающий удар? В дополнение к этому все «искусственные мозги» склонны к состязательности и отсутствию элементов критического мышления, что также не добавляет доверия со стороны человека.

Аналитики из RAND Corporation, вообще, призывают ни в коем случае не доверять военно-стратегические решения искусственному разуму – ни в настоящем, ни в будущем. Если с уничтоженными по ошибки ИИ несколькими нонкомбатантами условно еще можно смириться, то в приложении к силам ядерного сдерживания все пройдет гораздо трагичнее.

Не все так просто и с оперативно-тактическим оружием под управлением ИИ.

Вернемся к кадрам из Нагорного Карабаха, наглядно иллюстрировавших техническое превосходство ударных дронов над традиционным вооружением. Здесь все понимали, что в небе всего лишь дистанционно управляемые машины, пусть и очень совершенные.

Какова была бы реакция публики, если бы удары наносили полностью автономные Bayraktar?

Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

Моральная сторона вопроса здесь до сих пор не решена. И вряд ли будет разрешена в ближайшем будущем.
 

Третья военная революция: машинный интеллект не должен быть с оружием
 


Вообще, роботы в армии – это, конечно, хорошо.

Они позволяют выводить солдат из-под непосредственного огня противника, передавая всю работу боевым единицам на дистанционном управлении. Снижаются потери и затраты. И война вроде как становится гуманнее.

Полностью автономное роботы в военной сфере или Lethal Autonomous Weapon Sysytem – это совсем не про гуманность и снижение потерь. Нейронные сети глубинного обучения делают войну гораздо более скоротечной и с большим количеством жертв. Собственно, именно это и обеспечили две предыдущие военные революции в военном деле – пороховая и ядерная.

Это понимают многие гражданские корпорации, занятые вместе с государством в оборонных проектах.

Так, Google в 2018 году вышел из крайне выгодного проекта Maven стоимостью более 7,5 млрд долларов. Спецы из Силиконовой долины вместе с DARPA работали над программой обработки видео- и фотомассивов информации от многочисленных разведывательных беспилотников. Данные обрабатывала нейронная сеть. И выдавала оператору «библиотеку целей» в порядке приоритета для уничтожения. Google вышел из истории. И сейчас DARPA пытается самостоятельно справиться.

Немаловажным аспектом ИИ в армии является использование его в информационной войне.

Можно с определенной долей уверенности говорить, что в самое ближайшее время из США просто посыплются очередные разоблачения России и (в большей степени) Китая в разработке боевого искусственного разума. Если не получается убедить публику внутри страны в необходимости автономного военного разума, то тогда будем пугать внешними врагами. Такой логикой Пентагон славится издревле. Дескать, у них уже во всю идет работа над ИИ, а мы тут с собственной моралью справиться не можем.

И наконец, вполне перспективным выглядят ассиметричные ответы на угрозы боевого ИИ. Сейчас набирают силу технологии маскировки объектов от всевидящего ока искусственного разума и даже намеренного введения в заблуждение.

Пока ИИ сносно работает в мирных условиях, когда информация подается на блюдечке.

Совсем плохо получается функционировать с неполными и зашумленными данными. Поэтому вполне логичным выглядят попытки ввести в заблуждение машинный интеллект заведомо откорректированными данными. Когда время реагирования вооруженного ИИ исчисляется секундами и не зависит от мнения человека, такая дезинформация может привести к сложно предсказуемым последствиям.

Третью военную революцию, по-хорошему, лучше отменить.

Или выработать совместные ограничительные меры по разработке и использованию ИИ в военной сфере. Удалось ведь что-то подобное провернуть в случае с ядерным оружием?



Источник

Просмотров: 444 | Добавил: wpristav | Третья военная революция: машинный интеллект не должен быть с оружием | Рейтинг: 0.0/0

Другие материалы по теме:


Сайт не имеет лицензии Министерства культуры и массовых коммуникаций РФ и не является СМИ, а следовательно, не гарантирует предоставление достоверной информации. Высказанные в текстах и комментариях мнения могут не отражать точку зрения администрации сайта.
Всего комментариев: 0
avatar


Учётная карточка


Видеоподборка



00:04:08


Комментарии

Популярное

«  Март 2021  »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
293031

Новости партнёров


work PriStaV © 2012-2024 При использовании материалов гиперссылка на сайт приветствуется
Наверх