<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; human decision-making</title>
	<atom:link href="http://web.snauka.ru/issues/tag/human-decision-making/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 07:29:22 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Некоторые проблемы использования робототехники в военном деле</title>
		<link>https://web.snauka.ru/issues/2016/03/65103</link>
		<comments>https://web.snauka.ru/issues/2016/03/65103#comments</comments>
		<pubDate>Thu, 10 Mar 2016 14:45:38 +0000</pubDate>
		<dc:creator>Oberst</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[human decision-making]]></category>
		<category><![CDATA[humanitarian and legal problems]]></category>
		<category><![CDATA[lethal autonomous robotics]]></category>
		<category><![CDATA[robotics battlefield]]></category>
		<category><![CDATA[the emergence of LARs]]></category>
		<category><![CDATA[автономные боевые роботы]]></category>
		<category><![CDATA[гуманитарные проблемы применения боевых роботов]]></category>
		<category><![CDATA[решение проблемы]]></category>
		<category><![CDATA[роботизация поля боя]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/?p=65103</guid>
		<description><![CDATA[Как показывает исторический опыт, любые научные и технологические разработки рано или поздно находят применение в военной области. Не является исключением и такое направление, как робототехника. Многие писатели-фантасты предвидели опасность создания боевых роботов, рассматривали случаи войны роботов со своими создателями. Разумеется, такая ситуация является фантастической. Да и роботы ранее никогда не  применялись как боевые системы. Конечно, [...]]]></description>
			<content:encoded><![CDATA[<p>Как показывает исторический опыт, любые научные и технологические разработки рано или поздно находят применение в военной области. Не является исключением и такое направление, как робототехника. Многие писатели-фантасты предвидели опасность создания боевых роботов, рассматривали случаи войны роботов со своими создателями. Разумеется, такая ситуация является фантастической. Да и роботы ранее никогда не  применялись как боевые системы.</p>
<p>Конечно, в этой связи можно возразить, что беспилотные средства как оружие применяются достаточно давно, ещё с середины прошлого века. Но необходимо помнить, что эти средства &#8211; самонаводящиеся ракеты и управляемые боеприпасы являются одноразовыми изделиями с ограниченными возможностями самостоятельного выбора цели удара. Это относится даже к самым современным из них, например, крылатым ракетам, оснащаемым системами управления с возможностью перенацеливания на конечном участке траектории. По определению, все они относятся к боеприпасам, а не к оружию. А вот боевые роботы – именно оружие, само выбирающее цель и поражающее её дистанционно, без самоуничтожения и с алгоритмом «поразить противника и уцелеть». В этом заключается существенная разница.</p>
<p>До настоящего времени роботизированные системы, отвечающие современному понятию определения «робот» применялись только там, где они заменяли человека в наиболее опасных сферах деятельности: беспилотные самолёты-разведчики, мишени и ложные цели для системы противовоздушной обороны противника, роботы-саперы, беспилотные системы для подводных поисковых работ и т.п.</p>
<p>Применение роботов на поле боя, например, в качестве разведчиков, позволило существенно повысить эффективность ведения боевых действий, хотя и решило далеко не все проблемы. Например, проблему сокращения длительности цикла поражения обнаруженных объектов. Для её решения логичным оказалось разместить вооружение на самом разведчике. Но что делать с принятием решения на удар? Этот вопрос не заставил себя ждать. При проведении операции «Несокрушимая свобода» (<em>Enduring</em><em> </em><em>Freedom</em>) беспилотным летательным аппаратом (БЛА) MQ-1 «Хищник» (<em>Predator</em>) была обнаружена автомобильная колонна террористов. За время принятия решения на удар колонна ушла из зоны досягаемости, хотя на борту БЛА имелись ракеты AGM-114K «Хеллфайр» (<em>Hellfire</em>), позволявшие при своевременном получении команды выполнить задачу поражения.</p>
<p>Но 17 октября 2001 года произошло событие, практически незамеченное прессой, но являющее собой определённую веху в истории взаимоотношения человека и созданных им машин: в ходе операции коалиционных сил США и НАТО в Афганистане (<em>ISAF</em>) получен первый опыт использования оснащенного управляемой ракетой БЛА «Предатор» для поражения зенитной установки с расчётом. Впоследствии случаи применения БЛА для поражения наземных объектов стали массовыми. В ходе проведении операций «Анаконда» (<em>Anaconda</em>) и «Шок и трепет» (<em>Shock and Awe</em>), БЛА применялись даже для непосредственной огневой поддержки и это, по заявлению американских источников, явилось очередным шагом к «войне машин» против человека [1,2].</p>
<p>И хотя до настоящего времени на всех этапах развития роботов от дистанционно-управляемых к беспилотным аппаратам решение на применение оружия всё-таки остаётся за человеком, но в перспективе и эта функция может быть делегирована БЛА. Это решение объективно диктуется требованиями оперативности ведения боевых действий.</p>
<p>Всё это позволяет сделать вывод, что на пути создания и внедрения боевых роботов, как и при использовании любой новой техники, возникают препятствия и проблемы, и не только технического плана. Возникает и ряд вопросов в других сферах: морально-этические и юридические в части применения робота против человека, проблемы безопасности для самих применяющих и мирного населения, проблема разделения ответственности между разработчиками и эксплуатантами и другие.</p>
<p><strong>Проблемы безопасности</strong> всегда сопровождают развитие сложных технических систем. Робототехника – не исключение. Начиная с 1979 года, зафиксировано более десяти случаев получения гибели людей при сбоях использования промышленных роботов. Но промышленные роботы системы, не имеющие целью убивать. Боевые роботы намного опаснее и меры безопасности при их использовании должны быть куда как более продуманы. Первыми над этим стали задумываться те, кто наиболее активно применяет подобные системы [3,4,5]. Вопрос не праздный, тем более уже имеются прецеденты. 12 октября 2007 года несанкционированным огнём автоматической зенитной пушки GDF-005 «Эрликон» (<em>Oerlikon</em>) в Южной Африке были убиты 9 и ранены 14 военнослужащих [6]. Чем больше будет на вооружении стран мира робототехнических систем, тем выше вероятность подобных случаев.</p>
<p>А 14 февраля 2016 года прецеденты с автономными роботами вышли за границы военной и промышленной сферы и стали касаться всех: впервые попал в аварию самоуправляемый автомобиль Google. В районе Маунтин-Вью, штат Калифорния, он, объезжая препятствие, столкнулся с автобусом. В дорожно-транспортной происшествии никто не погиб, но «очередной звоночек» для человечества прозвенел.</p>
<p>И второй вопрос, вытекающий из первого: кто несёт <strong>ответственность в случаях причинения роботами вреда</strong> своим военнослужащим или мирному населению? Разделение вины между изготовителем самого робота, разработчиком программного обеспечения для него и оператором (эксплуатирующим подразделением) системы становится актуальным как никогда. Юридически эта ситуация пока не отрегулирована.</p>
<p>Ещё одна спорная ситуация &#8211; это наличие морального и этического права предоставлять машинам <strong>возможность самостоятельно принимать решение на поражение объектов, в которых может находиться</strong> человек.</p>
<p>Но, как бы там ни было, развитие техники неизбежный процесс, его не остановить и к проблемам, которые неизбежно возникнут,  нужно готовиться уже сейчас. В апреле 2013, мае 2014 и июне 2015 года вопрос поднимался  на совещаниях, проводимых под эгидой ООН в рамках обсуждения развития Конвенции о запрещении или ограничении применения конкретных видов обычного оружия [5]. Совет безопасности ООН выразил обеспокоенность и рекомендовал установить мораторий на развитие автономных боевых роботов (<em>Lethal autonomous robotics &#8211; LAR</em>).</p>
<p>Правда решение ООН – всего лишь рекомендация, оно не обязательно к исполнению. Ведущиеся в настоящее время переговоры по разработке нового соглашения наталкиваются на проблему трактовки понятий и желание каждой страны-разработчика оставить за собой право на выполнение ряда работ по данной тематике [7]. В результате ведущие промышленные государства продолжают развитие, а иногда и практическое внедрение, автономных боевых роботов. Так в США уже доведён до стадии испытаний автономный беспилотный истребитель Х49В,  в Израиле разрабатывается сеть автоматических пулемётных установок для прикрытия границы, Южная Корея разрабатывает наземный автономный боевой робот SGR-1 и т.п.</p>
<p>Конечно, во всех существующих роботизированных системах решение о непосредственном применении оружия принимает человек-оператор. По крайней мере пока&#8230; И до сценариев войны людей и машин, описанных фантастами ещё очень и очень далеко. Но предпосылки, как отмечалось ранее, уже есть и количество их постоянно растёт.</p>
<p>Исходя из этого, массовое применение автономных боевых роботов на поле боя в обозримом будущем представляется весьма вероятным. Как наемные войска в прошлом, они будут выполнять боевые задачи для тех, у кого есть средства на развитие новых технологий войны. И если менее развитые в техническом отношении государства будут по старинке решать проблемы по принципу «кровь – цена победы», то развитые страны будут беречь своих граждан, обеспечивая бескровную победу. И Россия должна быть готова к такому развитию событий. Но для этого разработчики боевых роботов должны решить ряд технических и организационных проблем [8,9], в том числе и тех, на которые обращено внимание в данной статье.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2016/03/65103/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
