Как показывает исторический опыт, любые научные и технологические разработки рано или поздно находят применение в военной области. Не является исключением и такое направление, как робототехника. Многие писатели-фантасты предвидели опасность создания боевых роботов, рассматривали случаи войны роботов со своими создателями. Разумеется, такая ситуация является фантастической. Да и роботы ранее никогда не применялись как боевые системы.
Конечно, в этой связи можно возразить, что беспилотные средства как оружие применяются достаточно давно, ещё с середины прошлого века. Но необходимо помнить, что эти средства – самонаводящиеся ракеты и управляемые боеприпасы являются одноразовыми изделиями с ограниченными возможностями самостоятельного выбора цели удара. Это относится даже к самым современным из них, например, крылатым ракетам, оснащаемым системами управления с возможностью перенацеливания на конечном участке траектории. По определению, все они относятся к боеприпасам, а не к оружию. А вот боевые роботы – именно оружие, само выбирающее цель и поражающее её дистанционно, без самоуничтожения и с алгоритмом «поразить противника и уцелеть». В этом заключается существенная разница.
До настоящего времени роботизированные системы, отвечающие современному понятию определения «робот» применялись только там, где они заменяли человека в наиболее опасных сферах деятельности: беспилотные самолёты-разведчики, мишени и ложные цели для системы противовоздушной обороны противника, роботы-саперы, беспилотные системы для подводных поисковых работ и т.п.
Применение роботов на поле боя, например, в качестве разведчиков, позволило существенно повысить эффективность ведения боевых действий, хотя и решило далеко не все проблемы. Например, проблему сокращения длительности цикла поражения обнаруженных объектов. Для её решения логичным оказалось разместить вооружение на самом разведчике. Но что делать с принятием решения на удар? Этот вопрос не заставил себя ждать. При проведении операции «Несокрушимая свобода» (Enduring Freedom) беспилотным летательным аппаратом (БЛА) MQ-1 «Хищник» (Predator) была обнаружена автомобильная колонна террористов. За время принятия решения на удар колонна ушла из зоны досягаемости, хотя на борту БЛА имелись ракеты AGM-114K «Хеллфайр» (Hellfire), позволявшие при своевременном получении команды выполнить задачу поражения.
Но 17 октября 2001 года произошло событие, практически незамеченное прессой, но являющее собой определённую веху в истории взаимоотношения человека и созданных им машин: в ходе операции коалиционных сил США и НАТО в Афганистане (ISAF) получен первый опыт использования оснащенного управляемой ракетой БЛА «Предатор» для поражения зенитной установки с расчётом. Впоследствии случаи применения БЛА для поражения наземных объектов стали массовыми. В ходе проведении операций «Анаконда» (Anaconda) и «Шок и трепет» (Shock and Awe), БЛА применялись даже для непосредственной огневой поддержки и это, по заявлению американских источников, явилось очередным шагом к «войне машин» против человека [1,2].
И хотя до настоящего времени на всех этапах развития роботов от дистанционно-управляемых к беспилотным аппаратам решение на применение оружия всё-таки остаётся за человеком, но в перспективе и эта функция может быть делегирована БЛА. Это решение объективно диктуется требованиями оперативности ведения боевых действий.
Всё это позволяет сделать вывод, что на пути создания и внедрения боевых роботов, как и при использовании любой новой техники, возникают препятствия и проблемы, и не только технического плана. Возникает и ряд вопросов в других сферах: морально-этические и юридические в части применения робота против человека, проблемы безопасности для самих применяющих и мирного населения, проблема разделения ответственности между разработчиками и эксплуатантами и другие.
Проблемы безопасности всегда сопровождают развитие сложных технических систем. Робототехника – не исключение. Начиная с 1979 года, зафиксировано более десяти случаев получения гибели людей при сбоях использования промышленных роботов. Но промышленные роботы системы, не имеющие целью убивать. Боевые роботы намного опаснее и меры безопасности при их использовании должны быть куда как более продуманы. Первыми над этим стали задумываться те, кто наиболее активно применяет подобные системы [3,4,5]. Вопрос не праздный, тем более уже имеются прецеденты. 12 октября 2007 года несанкционированным огнём автоматической зенитной пушки GDF-005 «Эрликон» (Oerlikon) в Южной Африке были убиты 9 и ранены 14 военнослужащих [6]. Чем больше будет на вооружении стран мира робототехнических систем, тем выше вероятность подобных случаев.
А 14 февраля 2016 года прецеденты с автономными роботами вышли за границы военной и промышленной сферы и стали касаться всех: впервые попал в аварию самоуправляемый автомобиль Google. В районе Маунтин-Вью, штат Калифорния, он, объезжая препятствие, столкнулся с автобусом. В дорожно-транспортной происшествии никто не погиб, но «очередной звоночек» для человечества прозвенел.
И второй вопрос, вытекающий из первого: кто несёт ответственность в случаях причинения роботами вреда своим военнослужащим или мирному населению? Разделение вины между изготовителем самого робота, разработчиком программного обеспечения для него и оператором (эксплуатирующим подразделением) системы становится актуальным как никогда. Юридически эта ситуация пока не отрегулирована.
Ещё одна спорная ситуация – это наличие морального и этического права предоставлять машинам возможность самостоятельно принимать решение на поражение объектов, в которых может находиться человек.
Но, как бы там ни было, развитие техники неизбежный процесс, его не остановить и к проблемам, которые неизбежно возникнут, нужно готовиться уже сейчас. В апреле 2013, мае 2014 и июне 2015 года вопрос поднимался на совещаниях, проводимых под эгидой ООН в рамках обсуждения развития Конвенции о запрещении или ограничении применения конкретных видов обычного оружия [5]. Совет безопасности ООН выразил обеспокоенность и рекомендовал установить мораторий на развитие автономных боевых роботов (Lethal autonomous robotics – LAR).
Правда решение ООН – всего лишь рекомендация, оно не обязательно к исполнению. Ведущиеся в настоящее время переговоры по разработке нового соглашения наталкиваются на проблему трактовки понятий и желание каждой страны-разработчика оставить за собой право на выполнение ряда работ по данной тематике [7]. В результате ведущие промышленные государства продолжают развитие, а иногда и практическое внедрение, автономных боевых роботов. Так в США уже доведён до стадии испытаний автономный беспилотный истребитель Х49В, в Израиле разрабатывается сеть автоматических пулемётных установок для прикрытия границы, Южная Корея разрабатывает наземный автономный боевой робот SGR-1 и т.п.
Конечно, во всех существующих роботизированных системах решение о непосредственном применении оружия принимает человек-оператор. По крайней мере пока… И до сценариев войны людей и машин, описанных фантастами ещё очень и очень далеко. Но предпосылки, как отмечалось ранее, уже есть и количество их постоянно растёт.
Исходя из этого, массовое применение автономных боевых роботов на поле боя в обозримом будущем представляется весьма вероятным. Как наемные войска в прошлом, они будут выполнять боевые задачи для тех, у кого есть средства на развитие новых технологий войны. И если менее развитые в техническом отношении государства будут по старинке решать проблемы по принципу «кровь – цена победы», то развитые страны будут беречь своих граждан, обеспечивая бескровную победу. И Россия должна быть готова к такому развитию событий. Но для этого разработчики боевых роботов должны решить ряд технических и организационных проблем [8,9], в том числе и тех, на которые обращено внимание в данной статье.
Библиографический список
- Симулин А.А., Глотов Д.А., Ещенко В.И., Тиханычев О.В. Некоторые аспекты использования робототехники в военном деле // Сборники конференций НИЦ Социосфера. 2015. № 27. С. 67-71.
- Hover and stare: FCS testing UAVs // Defense Tech. May 2008 [Электронный ресурс]. URL: htpp://defensetech.org/2008/05/09/ (дата обращения: 9.05.2008).
- Is our robot army ready for combat? // Defense Tech. April 2008 [Электронный ресурс]. URL: htpp://defensetech.org/2008/04/25/ (дата обращения: 25.04.2008).
- Robot targets men in Iraq // Defense Tech. April 2008 [Электронный ресурс]. URL: htpp://defensetech.org/2008/04/13/ (дата обращения: 13.04.2008).
- Report of the Special Reporter on extrajudicial, summary or arbitrary executions, Christof Heyns // UN General Assembly [Электронный ресурс]. URL:http://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf (дата обращения 5.02.2015).
- The Sunday paper (tech ethics edition) // Defense Tech. January 2008 [Электронный ресурс]. URL: htpp://defensetech.org/2008/01/27/ (дата обращения: 30.01.2008).
- В ООН обсуждается вопрос запрета применения военных роботов // Новости Hi-Tech [Электронный ресурс]. URL: http://android-robot.com/v-oon-obsuzhdaetsya-vopros-zapreta-primeneniya-voennyx-robotov (дата обращения 06.10.2015 )
- Выпасняк В.И., Тиханычев О.В. О повышении эффективности применения высокоточного оружия в военных конфликтах локального и регионального масштаба // Вестник академии военных наук. 2008. № 4. С. 43.
- Русанов И.П., Ясеновенко В.Г., Тиханычев О.В. Разведывательно-поражающие системы ВМФ – ретроспектива // Морской сборник. 2014. Т. 2004. № 3. С. 45-50.
Количество просмотров публикации: Please wait