Другие журналы на сайте ИНТЕЛРОС

Журнальный клуб Интелрос » Курьер ЮНЕСКО » №3, 2018

Василий Сычев
Роботы-убийцы: неминуемая угроза?

 

cou_03-18_ratnik_01.jpg

Общественность все больше выступает против создания смертоносных автономных систем вооружения.

Искусственный интеллект широко используется в военной сфере и в области безопасности. Он облегчает выполнение многих практических задач, позволяет спасти жизнь людей при повреждении военной техники, помогает солдатам на поле боя и повышает боеспособность вооруженных сил. По мнению ряда экспертов, смертоносные автономные системы (САС) знаменуют собой третью революцию в военном деле после изобретения огнестрельного и ядерного оружия. Невозможно без тревоги думать о том, к чему может привести создание армий роботов, способных самостоятельно вести боевые действия.

Василий Сычев

Многие компании по всему миру активно проводят научные исследования в области искусственного интеллекта. Полученные к настоящему времени наработки показывают отличные результаты: искусственный интеллект уже научился предсказывать риск развития диабета по данным «умных» наручных часов или отличать родинки от некоторых разновидностей рака по их внешнему виду. Такой мощный инструмент, превосходящий человеческий разум по одному из важнейших параметров – быстродействию, заинтересовал и военных.

Благодаря развитию компьютерных технологий боевые системы будущего станут автономнее современных. Отчасти такая автономизация имеет несомненные преимущества: у бойцов появятся быстродействующие помощники. Но есть у этого процесса и негативная сторона – гонка вооружений между странами, военный произвол в зоне ведения боевых действий и безответственность в принятии решений. Сегодня множество предпринимателей, политиков и ученых добиваются запрета на применение автономных боевых систем, а военные уверяют, что окончательное решение – убивать или нет – в бою все же будет принимать человек.

В это хочется верить, но надо помнить при этом, что и ядерное оружие, которого хорошо бы и вовсе не существовало, и у которого было множество противников еще на этапе разработки, все же было однажды использовано на войне.

Виртуальный помощник

Искусственный интеллект способен существенно облегчить и ускорить работу людей во всех сферах деятельности, в том числе в области обеспечения безопасности. Так, ученые из Гранадского университета(link is external) в Испании занимаются разработкой программного обеспечения с использованием искусственных нейронных сетей, которое способно практически моментально и с очень высокой точностью обнаруживать на видео стрелковое оружие – пистолеты, пулеметы, автоматы. Современные системы безопасности, помимо прочего, включают в себя огромное множество видеокамер наблюдения, просматривать «картинки» с каждой из которых операторы просто не могут. Искусственный интеллект же может анализировать видео с большого количества камер, обнаруживать оружие и мгновенно оповещать о находке людей.

Между тем, Центр геопространственной разведки (CGI(link is external)) Миссурийского университета в Соединенных Штатах Америки разработал систему искусственного интеллекта, способную на спутниковых и аэрофотоснимках быстро и точно находить зенитные ракетные комплексы. Скорость поиска комплексов по сравнению с просмотром снимков специалистами-людьми увеличивается до 85 раз. Обучение нейросети для системы производилось по фотографиям с типичными видами зенитных комплексов. После обучения готовую систему испытали на некотором наборе фотографий, и она обнаружила 90% комплексов на снимках всего за 42 минуты. У специалистов-людей на решение той же задачи с тем же результатом ушло 60 часов.

Существует и более сложное применение для искусственного интеллекта. Например, Исследовательская лаборатория Армии США (ARL(link is external)) занимается созданием компьютерной системы, анализирующей реакцию человека на то или иное изображение. Она будет полезна для военных аналитиков, вынужденных просматривать тысячи фотографий и часы видеозаписей и систематизировать их. Принцип работы системы основан на том, что искусственный интеллект внимательно следит за взглядом и лицом аналитика и одновременно «просматривает» изображения, которые он смотрит. Если какой-либо снимок или кадр видеозаписи привлечет внимание человека (изменится выражение лица или направление взгляда), система автоматически переместит его в тематическую папку. Во время испытаний одному из солдат показывали набор изображений, разделенных на пять основных категорий: «лодки», «панды», «клубника», «бабочки» и «люстры». Солдата попросили вести счет изображениям только из одной интересующей его категории. Сами картинки сменялись каждую секунду. По итогам эксперимента искусственный интеллект «определил», что бойца заинтересовала категория «лодки» – картинки с такими объектами система скопировала в отдельную папку.

 


Эти рисунки изначально создавались как иллюстрация к научно-фантастической повести Crisis in Zefra Карла Шрёдера, интервью с которым представлено в этом номере «Курьера».

 

На поле боя

Искусственный интеллект может помогать и военным, непосредственно участвующим в бою. Так, в России завершается разработка истребителя пятого поколения Су-57, который может быть принят на вооружение уже до конца текущего года. Программное обеспечение бортового компьютера этого истребителя создается с использованием элементов искусственного интеллекта. В полете истребитель постоянно анализирует состояние воздушных потоков вокруг него, температуру воздуха, давление и множество других параметров. В случае, если летчик отклонит ручку управления для совершения маневра, а система «решит», что это действие приведет к падению, команда с ручки будет проигнорирована. При попадании самолета в штопор эта же система будет давать летчику подсказки, как можно выровнять истребитель и восстановить управление над ним.

Между тем, Япония занимается разработкой собственного истребителя пятого поколения, прототип которого, самолет X-2 Shinshin («душа»), совершил свой первый полет в апреле 2016 года. В частности, планируется разработать особую систему на базе искусственного интеллекта, призванную обеспечить «выживание» истребителя. Эта система включит в себя обширную сеть датчиков, которые будут анализировать состояние каждого элемента самолета и определять его повреждения. Если истребитель получит в бою повреждение крыла или хвостового оперения, его бортовая система перенастроит управление таким образом, чтобы маневренность и скорость самолета практически не изменились. Компьютер японского истребителя сможет и прогнозировать время полного отказа того или иного поврежденного элемента, давая летчику возможность оценить, может ли он продолжать воздушный бой или должен вернуться на базу.

В этом качестве искусственный интеллект является «благом», если такое понятие в принципе возможно использовать в отношении оружия и боевых систем. Ведь сложная программа, способная находить оптимальное решение для конкретной текущей задачи в десятки раз быстрее человека, будет способна не просто облегчить работу разведчика, оператора беспилотного летательного аппарата или командира системы противовоздушной обороны. Она сможет и спасать жизни людей, терпящих бедствие на подводной лодке (точечное пожаротушение в отсеках, покинутых людьми), управляющих поврежденным самолетом или ведущих бой с бронетехникой противника.

Роботы-убийцы

Быстрота анализа и хорошая обучаемость делают искусственный интеллект привлекательным для использования в боевых системах. У военных, хотя они пока и не признаются в этом, наверняка уже появился соблазн создать боевые системы, которые могли бы действовать на поле боя полностью самостоятельно, под чем подразумевается обнаружение и обстрел целей, а также способность перемещаться, выбирая наиболее оптимальную траекторию и укрытия.

Несколько лет назад военные ведомства США, России, Германии, Китая и еще нескольких стран объявили, что создание полностью автономных боевых систем не является их целью. При этом военные отметили, что, скорее всего, такие системы все же будут созданы.

В 2017 году министерство обороны США завершило формирование так называемой третьей компенсационной стратегии (Third Offset Strategy) и приступило к ее реализации. Этот документ, помимо прочего, подразумевает активное развитие технических инноваций и их использование в перспективных военных разработках.

1 сентября того же года президент России Владимир Путин провел в одной из школ Ярославля открытый урок, во время которого он заявил: «Искусственный интеллект – это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира». При этом он добавил: «Очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих-то конкретных руках. Поэтому мы, если мы будем лидерами в этой сфере, также будем делиться этими технологиями со всем миром». Тем не менее означает ли это, что новой гонки вооружений удастся избежать?

На Земле становится все больше зон, надежно защищенных системами противовоздушной и противоракетной обороны, находящихся под наблюдением спутниковых и беспилотных систем и патрулируемых кораблями и самолетами. В понимании военных, в случае войны проникать в такие закрытые зоны и относительно свободно действовать в них смогут только боевые системы с искусственным интеллектом.

Уже сегодня существуют боевые системы, способные самостоятельно обнаруживать и классифицировать воздушные цели и запускать по ним зенитные ракеты. В качестве примера можно привести зенитные ракетные комплексы С-400, стоящие на вооружении России. Аналогичным образом функционирует и американская корабельная боевая информационно-управляющая система Aegis, контролирующая вооружение боевых кораблей. Со стороны Республики Кореи по периметру демилитаризованной зоны с КНДР установлены несколько боевых турелей SGR-A1, отвечающих за наблюдение за границей. В автоматическом режиме они способны открывать огонь по противнику, не стреляя при этом по людям с поднятыми руками. Все перечисленные системы не используются военными в автоматическом режиме.

Последние достижения в разработке искусственного интеллекта уже позволяют создавать боевые системы, способные самостоятельно перемещаться. Так, в США ведется разработка беспилотных летательных аппаратов, которые будут использоваться в качестве ведомых. Они будут летать за истребителями, управляемыми людьми, и по команде вступать в бой, обстреливая воздушные или наземные цели. Система управления огнем перспективного российского танка Т-14, разработка которого ведется на базе универсальной гусеничной платформы «Армата», сможет самостоятельно обнаруживать цели и вести их обстрел вплоть до полного уничтожения. Параллельно в России ведутся работы над семейством гусеничных роботов, которые смогут участвовать в бою наравне с солдатами-людьми.

Военные заявляют, что все подобные системы должны выполнять несколько основных функций, в первую очередь – повышать эффективность поражения целей противника и сохранять жизни своих солдат. При этом пока не существует никаких международных нормативов и правовых документов, которые бы регулировали использование боевых систем с искусственным интеллектом в войне. Ни Обычаи ведения войны(link is external), ни целый набор Женевских конвенций(link is external) не описывают, какие боевые системы с искусственным интеллектом можно использовать в бою, а какие нет. Не существует и международного законодательства, по которому можно было бы определить виновных в сбое той или иной автономной системы. Если ударный беспилотник самостоятельно разбомбит какое-либо мирное поселение, кто понесет наказание? Производитель этого летательного аппарата? Командир эскадрильи, к которой он был приписан? Министерство обороны? Цепочка потенциальных виновных слишком велика, а, как известно, если виновны многие – не виновен никто.

В 2015 году волонтерская организация Future of Life Institute(link is external) («Институт будущего жизни») опубликовала открытое письмо, подписанное более чем 16 тысячами человек. В этом письме говорится о том, что боевые системы с искусственным интеллектом опасны для мирного населения, могут стать причиной гонки вооружений и в конечном итоге привести к гибели всего человечества. Открытое письмо, в частности, подписали американский предприниматель и основатель компаний SpaceX и Tesla Илон Маск, британский астрофизик Стивен Хокинг (1942-2018 гг.) и американский философ Ноам Хомский. В августе прошлого года Маск и еще около ста разработчиков робототехники и систем искусственного интеллекта направили в ООН ходатайство о введении полного запрета на разработку и испытание полностью автономных боевых систем.

Эксперты полагают, что создание армий роботов, способных самостоятельно вести боевые действия, неминуемо приведет к возникновению у их владельцев чувства всевластия и безнаказанности. Когда в боевых действиях принимает участие человек, он принимает решения, в том числе, с точки зрения собственных моральных установок, чувств и эмоций. Непосредственное наблюдение чужих страданий все же служит неким сдерживающим фактором для солдат, хотя у профессиональных военных сострадание и восприимчивость со временем притупляются. В случае повсеместного внедрения автономных боевых систем, отрядами которых можно будет руководить, лишь водя пальцем по экрану планшета и находясь при этом на другом материке, война неизбежно превратится в игру. И тогда жертвы среди мирного населения и гибель солдат противника станут всего лишь цифрами на экране.

Дополнительная информация: 

ООН и САС

 

Василий Сычев

Журналист, эксперт по вооружениям и военной технике Василий Сычев (Российская Федерация) окончил Российский университет дружбы народов по направлению «Журналистика». Работает по специальности с 2002 года. Работал в «Российской газете», журнале «Эксперт», интернет-издании Lenta.ru, газете «Военно-промышленный курьер». В настоящее время ведет темы «Оружие» и «Авиация» в научно-популярном интернет-издании N + 1.



Другие статьи автора: Сычев Василий

Архив журнала
№4, 2020№1, 2021№2, 2021№3, 2021ю№4, 2021№2, 2020№1, 2020№3, 2019№4, 2019№2, 2019№1, 2019№4, 2018№2, 2018№3, 2018№1, 2018№3, 2017№2, 2017№4, 2011
Поддержите нас
Журналы клуба