<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; противодействие</title>
	<atom:link href="http://web.snauka.ru/issues/tag/protivodeystvie/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Sat, 18 Apr 2026 09:41:14 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>К вопросу о противодействии вредоносной информации в социальных сетях</title>
		<link>https://web.snauka.ru/issues/2021/05/95445</link>
		<comments>https://web.snauka.ru/issues/2021/05/95445#comments</comments>
		<pubDate>Fri, 14 May 2021 06:59:32 +0000</pubDate>
		<dc:creator>Смирнов Евгений Витальевич</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[вредоносная информация]]></category>
		<category><![CDATA[группы смерти]]></category>
		<category><![CDATA[нормы российского законодательства]]></category>
		<category><![CDATA[противодействие]]></category>
		<category><![CDATA[сетевой контент]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2021/05/95445</guid>
		<description><![CDATA[В настоящее время вопрос информационной безопасности в социальных сетях является крайне важным, поскольку, с их популярностью и вовлечением в них граждан они стали неким глобальным информационным полем, оказывающим огромное влияние на современную жизнь. Аудитория и влияние социальных сетей очень велики, что дает возможность различного вида вредоносной информации оказывать влияние на общество, что, конечно же недопустимо. [...]]]></description>
			<content:encoded><![CDATA[<p><span style="text-align: justify;">В настоящее время вопрос информационной безопасности в социальных сетях является крайне важным, поскольку, с их популярностью и вовлечением в них граждан они стали неким глобальным информационным полем, оказывающим огромное влияние на современную жизнь. Аудитория и влияние социальных сетей очень велики, что дает возможность различного вида вредоносной информации оказывать влияние на общество, что, конечно же недопустимо. Противодействие вредоносной информации может быть необходимо не только государствам и крупным корпорациям, заботящихся о репутации, но и обычным людям, заинтересованным в объективности собственного информационного пространства.</span></p>
<p style="text-align: justify;"><span>Существует большое количество методик, направленных на мониторинг и анализ социальных сетей и противодействие вредоносной информации. Финальным этапом практически каждой из них являются какие-либо меры противодействия, показывающие хорошие результаты на тестовых выборках, однако их применение в рамках действующих социальных оставляет желать лучшего. В ходе данной работы будет рассмотрена эффективность противодействия на конкретном примере.<br />
</span></p>
<p style="text-align: justify;"><span>Для противодействия вредоносной информации в социальных сетях можно выделить три вида мер: правовые, организационные и программно-технические [1].<br />
</span></p>
<p style="text-align: justify;"><span><span style="text-decoration: underline;"><strong>Правовые меры</strong></span> необходимы для установление общих правил функционирования интернет-среды и определение правового статуса его участников, они устанавливают правовые запреты на распространение определенного вида контента и оговаривают ответственность за их нарушение.<br />
</span></p>
<p style="text-align: justify;"><span>Что касается <span style="text-decoration: underline;"><strong>организационных мер</strong></span>, то они тесно переплетены с правовыми и заключаются в организации линий приема информации о негативном контенте и реагирование на них (удаление/блокирование контента или сайта, уведомление правоохранительных органов, формирование и обновление черных/белых списков и в мониторинге контента со стороны администраторов,<br />
</span></p>
<p style="text-align: justify;"><span><span style="text-decoration: underline;"><strong>Программно-технические меры</strong></span> исполняют вышесказанное, применяя технологии поиска, фильтрации и ограничения контента, содержащего негативную информацию, а также предоставляют пользователям иные технологические инструменты необходимые для обеспечения безопасности. Рассмотрим эффективность применения комплекса этих мер на конкретном примере.<br />
</span></p>
<p style="text-align: justify;"><span>В 2012 году в России началась активная борьба с так называемыми &#8220;группами смерти&#8221;, призывающих подростков к суициду. В соответствие с Указом Президента РФ от 01.06.2012 &#8220;О Национальной стратегии действий в интересах детей на 2012 &#8211; 2017 годы&#8221; [2] в стране были реализованы программы по предотвращению данного явления. Были дополнены некоторые существующие законы и приняты новые. Что касается сферы интернет-пространства:<br />
</span></p>
<p style="text-align: justify;"><span>ФЗ №149 &#8220;Об информации, информационных технологиях и о защите информации&#8221; [3] дополнили новым пунктом, обязывающим орган исполнительной власти, осуществляющий контроль и надзор в сфере средств массовой информации, массовых коммуникаций, в случае выявления в Интернет информации о призывах к совершению самоубийства в течение суток информировать о всех выявленных нарушениях органы внутренних дел, для принятия адекватных мер по нейтрализации выявленных угроз. Позднее, в 2018 в этом же законе сервисы WhatsApp, Viber и подобные получили юридическое определение как информационно-коммуникационный сервис обмена мгновенными сообщениями. Закон предусмотрел возможность ограничения оператором связи доступа к подобным сервисам на основании решения уполномоченного органа власти или решения суда.<br />
</span></p>
<p style="text-align: justify;"><span>Дальнейшим развитием системы правовых актов является принятый Федеральный закон № 156 от 2017 года [4]. Этим законом введено в обращение понятие «копии заблокированного сайта». Копии заблокированного сайта (зеркала) теперь автоматически блокируются Роскомнадзором. Операторы поисковых систем так же в силу этого закона обязаны удалять из результатов поиска ссылки на заблокированные ресурсы.<br />
</span></p>
<p style="text-align: justify;"><span>Что касается непосредственно социальных сетей, то в начале 2018 г. подписан ФЗ № 139 закон о внесудебной блокировке групп и сообществ, распространяющих опасную для здоровья и жизни несовершеннолетних информацию [5]. Блокировка группы осуществляется вследствие решения уполномоченных органов (Роскомнадзор, Роспотребнадзор, ФСКН), вследствие решения суда и вследствие решения администрации социальных сетей.<br />
</span></p>
<p style="text-align: justify;"><span> Вскоре на сайте Роскомнадзора существующая форма для обращений граждан была дополнена возможностью оставить официальное обращение и пожаловаться на конкретный ресурс. Сейчас этот подход активно развивается, так в<span style="color: #202736;"> феврале 2021 года началось бета-тестирование мобильного приложения для ускоренной подачи жалоб граждан на запрещенную информацию, цель которого &#8211; повысить оперативность удаления из Сети запрещенной информации.<br />
</span></span></p>
<p style="text-align: justify;"><span>Теперь перейдем к практической реализации противодействия. <span style="background-color: white;">В декабре 2016 года на базе Роскомнадзора создана рабочая группа по пресечению распространения в интернете информации о «группах смерти». В состав объединения, кроме Роскомнадзора и его подведомственных предприятий, вошли представители Роспотребнадзора, Mail.ru Group, «ВКонтакте», «Одноклассники», «МойМир». По результатам заседания была организована работа по мониторингу российских соцсетей, в том числе «закрытых групп», а также по оперативному удалению суицидального контента администрацией «ВКонтакте», «Одноклассники», «МойМир» [6]. </span>В результате их работы был составлен глоссарий ключевых слов, соответствующих тематики («синий кит», «разбуди меня в 4.20» и подобные выражения). Экспертами был произведен поиск по ключевым словам и фото/видео/аудио контенту содержащим соответствующую символику, призывы и иную информацию. И по результатам их работы были произведены множественные досудебные блокировки. Однако их авторы на тот момент успешно уходили от ответственности, а взамен заблокированных сообществ появлялись новые и тут же дублировались, что спровоцировало многократное увеличение таких групп и привлечение аудитории.<br />
</span></p>
<p style="text-align: justify;"><span> В исследовании Самосват О. И., Брежневой Т. С., Шмееровой Е. Р. [7] были собраны статистические данные об изменении количества «групп смерти» и их участников в течении нескольких лет, эти данные представлены в виде графиков на рисунке 1.<br />
</span></p>
<p style="text-align: center;"><img src="https://web.snauka.ru/wp-content/uploads/2021/05/051421_0629_1.png" alt="" /><span><br />
</span></p>
<p style="text-align: center;"><span>Рисунок 1. Статистические данные о подписчиках и количестве «групп смерти»<br />
</span></p>
<p style="text-align: justify;"><span>Массовое освещение этой темы в СМИ привело к повышению информированности о таких группах и вызвало повышенный всплеск внимания к ним, а активное блокирование привело к мутированию групп, то есть к изменению названий, сленга и типа публикуемого контента. К тому же стало появляться множество сообществ, которые как бы выходят из запрещённого движения, но всё ещё остаются в рамках смежных тем.<br />
</span></p>
<p style="text-align: justify;"><span>Из приведенных графиков видно, что с начала активных блокировок количество групп и интерес к ним возросли в разы, однако позднее их число заметно снизилось. Предположительно это обусловлено тем, что в 2017 году по результатам долгих расследований были проведены несколько судебных дел и вынесено несколько реальных приговоров. Однако таких случаев немного и вскоре количество подписчиков подобных групп вновь стало расти, что говорит о необходимости применения другого, более технического подхода.<br />
</span></p>
<p style="text-align: justify;"><span>Несомненно, вследствие активных действий на какое-то время число групп и их аудитория снизились, а информированность населения и социальная политика дали свои результаты. Однако при существующем подходе часть групп были пропущены, связи между пользователями и основные каналы распространения информации не были выявлены, а часть лидеров движения избежали ответственности и продолжили свою деятельность.<br />
</span></p>
<p style="text-align: justify;"><span>Таким образом можно сделать вывод, что противодействие вредоносному контенту в социальных сетях ведется, однако оно носит временный характер и имеет низкую эффективность, особенно в долгосрочной перспективе, что обусловлено слабой автоматизацией этого процесса и длительной по времени юридической процедурой. Для повышения эффективности необходимо использовать методы, позволяющие:<br />
</span></p>
<ul>
<li>
<div style="text-align: justify;"><span>Отслеживание всех вредоносных групп за короткий отрезок времени;<br />
</span></div>
</li>
<li>
<div style="text-align: justify;"><span>Производить анализ связей их авторов и участников;<br />
</span></div>
</li>
<li>
<div style="text-align: justify;"><span>Отслеживать основные пути распространения контента и главных активистов этого, пути привлечения участников;<br />
</span></div>
</li>
<li>
<div style="text-align: justify;"><span>Разработать меры блокировки групп, основных лиц и путей распространения контента в кратчайшие сроки в сети и вне её;<br />
</span></div>
</li>
<li>
<div style="text-align: justify;"><span>Проработать законодательство для более ускоренного решения подобных вопросов.<br />
</span></div>
</li>
</ul>
<p style="text-align: justify;"><span>Для подобного предполагается использование методик противодействия, в основе которых лежит использование нейронных сетей и машинное обучение. Они позволяют производить анализ и распознавание данных на основе существующих и меняющихся сигнатур, а также могут отличить записи со схожим сленгом, но не несущих в себе никаких призыв (например шутки с черным юмором), что может быть определено за счет оценки тональности текстов, изображений, аудио и видео. Также использование графовых моделей представления данных удобно для отображения основных авторов и распространителей, а также связей между ними. Ну и стоит заметить, что плодотворное применение подобных методик невозможно без тесного сотрудничества с правовой системой.</span></p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2021/05/95445/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Методы обнаружения и противодействия глубоким фейкам в цифровом пространстве</title>
		<link>https://web.snauka.ru/issues/2026/02/104231</link>
		<comments>https://web.snauka.ru/issues/2026/02/104231#comments</comments>
		<pubDate>Sun, 01 Feb 2026 13:14:54 +0000</pubDate>
		<dc:creator>author78021</dc:creator>
				<category><![CDATA[08.00.00 ЭКОНОМИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[progress]]></category>
		<category><![CDATA[алгоритмы]]></category>
		<category><![CDATA[артефакты]]></category>
		<category><![CDATA[биометрия]]></category>
		<category><![CDATA[верификация]]></category>
		<category><![CDATA[глубокие фейки]]></category>
		<category><![CDATA[защита информации]]></category>
		<category><![CDATA[инновации]]></category>
		<category><![CDATA[искусственный интеллект]]></category>
		<category><![CDATA[кибербезопасность]]></category>
		<category><![CDATA[манипуляция данными]]></category>
		<category><![CDATA[медиаграмотность]]></category>
		<category><![CDATA[нейронные сети]]></category>
		<category><![CDATA[обнаружение]]></category>
		<category><![CDATA[обучение моделей]]></category>
		<category><![CDATA[противодействие]]></category>
		<category><![CDATA[синтетический контент]]></category>
		<category><![CDATA[технологии]]></category>
		<category><![CDATA[цифровая безопасность]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2026/02/104231</guid>
		<description><![CDATA[Использование передовых технологий блокчейн и скрытых цифровых водяных знаков позволяет надежно подтверждать подлинность видеозаписей и фотографий непосредственно с момента их фиксации камерой устройства. Каждое малейшее изменение в файле мгновенно фиксируется в распределенном реестре, что делает практически невозможным любое незаметное редактирование контента со стороны потенциальных злоумышленников. Обучение нейронных сетей для встраивания невидимых стеганографических меток в медиаданные [...]]]></description>
			<content:encoded><![CDATA[<p>Использование передовых технологий блокчейн и скрытых цифровых водяных знаков позволяет надежно подтверждать подлинность видеозаписей и фотографий непосредственно с момента их фиксации камерой устройства. Каждое малейшее изменение в файле мгновенно фиксируется в распределенном реестре, что делает практически невозможным любое незаметное редактирование контента со стороны потенциальных злоумышленников. Обучение нейронных сетей для встраивания невидимых стеганографических меток в медиаданные обеспечивает полную прослеживаемость информации на протяжении всего ее жизненного цикла в сложном цифровом пространстве. Это создает доверенную и прозрачную среду для обмена официальными государственными заявлениями и новостными материалами, эффективно защищая репутацию публичных деятелей и международных организаций. Системный подход к проверке фактов органично объединяет вычислительную мощь искусственного интеллекта и экспертные знания ведущих специалистов по компьютерной криминалистике. Инновации в сфере информационной безопасности направлены на сохранение объективной истины и прозрачности в эпоху тотальной цифровизации всех сфер жизни общества.</p>
<p>Обучение моделей для обнаружения синтетических голосов требует скрупулезного анализа мельчайших пауз, вдохов и уникальных частотных характеристик человеческой речи, которые часто упускаются при автоматической генерации аудиофейков. Современные детекторы способны эффективно отличать живой человеческий голос от сгенерированного по специфическим акустическим признакам, которые остаются совершенно невидимыми и неслышимыми для человеческого уха. Это критически важно для надежного предотвращения мошенничества в финансовой и банковской сферах, а также в корпоративных коммуникациях, где голосовая биометрия традиционно используется для авторизации доступа. Постоянное и оперативное обновление баз данных синтетических образцов позволяет существующим системам защиты оставаться максимально эффективными против новых типов сложных генеративных алгоритмов. Научные исследования в области цифровой обработки сигналов являются незыблемым фундаментом для создания надежных и современных щитов против организованной киберпреступности. Глобальное сообщество ученых и ведущих инженеров активно работает над созданием единых международных стандартов обязательной маркировки синтезированного контента для повышения прозрачности интернета.</p>
<p>Внедрение специализированных образовательных программ по медиаграмотности помогает рядовым пользователям самостоятельно распознавать первичные признаки визуальной и звуковой манипуляции в повседневном цифровом общении. Глубокое понимание того, как именно работают современные технологии искусственного интеллекта, значительно снижает общий уровень уязвимости общества перед лицом агрессивных информационных атак. Обучение навыкам критического мышления и строгим правилам многократной проверки источников информации становится базовым и необходимым навыком выживания в современном цифровом мире. Государственные инициативы по законодательному регулированию использования сложных генеративных моделей направлены на защиту фундаментальных прав граждан и предотвращение использования технологий во вред. Архитектурная гибкость современных систем кибербезопасности позволяет успешно интегрировать модули обнаружения фейков в популярные социальные сети, видеохостинги и мобильные мессенджеры. Мы искренне стремимся к созданию максимально безопасного цифрового будущего, где высокие технологии служат исключительно прогрессу и мирному созиданию.</p>
<p>Рациональное использование вычислительных ресурсов при глубоком анализе видеопотоков обеспечивается за счет оптимизации сложных алгоритмов для эффективной работы на самой границе сети. Современные мобильные устройства могут самостоятельно выполнять качественную первичную проверку контента, не передавая личные данные на удаленные мощные серверы, что кратно повышает скорость реакции на возникающие угрозы. Обучение компактных и легких нейросетей позволяет масштабировать надежные системы защиты до миллионов активных пользователей без гигантских затрат на серверную инфраструктуру. Постоянный поиск новых фундаментальных математических методов сокращения размерности данных помогает делать детекторы фейков максимально доступными и производительными. Инновации в области микроэлектроники и системной автоматизации играют решающую роль в глобальной борьбе с распространением изощренных цифровых подделок. Мы создаем уникальные интеллектуальные инструменты, способные надежно защитить национальное информационное пространство от любых видов высокотехнологичных и опасных манипуляций.</p>
<p>Перспективы развития технологий оперативного обнаружения связаны с созданием полностью автономных цифровых агентов безопасности, способных вести диалог с пользователем и предупреждать его о подозрительности контента. Использование комплексного мультимодального анализа, объединяющего видео, аудио и текстовую информацию, значительно повышает итоговую точность идентификации сложных глубоких фейков. Обучение систем на основе динамических графов знаний позволяет сопоставлять любые заявления на видео с реальными зафиксированными фактами из проверенных источников в режиме реального времени. Такая глубокая проверка делает массовое распространение дезинформации экономически совершенно невыгодным и технически чрезвычайно сложным процессом для атакующей стороны. Научный прогресс в области глубокого обучения открывает новые захватывающие горизонты для защиты фундаментальных человеческих ценностей правды, искренности и доверия. Каждый новый шаг в развитии детекторов является вкладом в долгосрочную стабильность и безопасность всего глобального информационного сообщества.</p>
<p>Этическая сторона разработки методов противодействия фейкам требует соблюдения баланса между защитой от лжи и сохранением свободы слова и творчества в цифровой среде. Важно обеспечить, чтобы инструменты автоматической цензуры не использовались для подавления альтернативных мнений или ограничения законной художественной деятельности людей. Обучение алгоритмов учитывать культурный и социальный контекст сообщения помогает минимизировать количество ложных срабатываний системы безопасности. Прозрачность методик обнаружения повышает уровень доверия общества к результатам работы искусственного интеллекта и экспертных комиссий. Мы стремимся к тому, чтобы технологии идентификации лжи сами оставались безупречными с точки зрения морали и законности. Ответственный подход к созданию систем защиты является залогом их эффективного принятия широкой аудиторией во всем мире.</p>
<p>Глобальное сотрудничество между ведущими технологическими корпорациями и государственными регуляторами позволяет оперативно обмениваться данными о новых типах угроз и уязвимостей. Создание открытых библиотек и датасетов для тренировки детекторов способствует демократизации технологий защиты, делая их доступными даже для небольших компаний. Обучение инженеров по всему миру единым стандартам безопасности ускоряет реакцию на появление новых вирусных фейков, способных вызвать панику. Архитектура международного взаимодействия должна быть устойчивой к политическим изменениям и ориентированной на защиту интересов всего человечества. Постоянный диалог между разработчиками и учеными-гуманитариями позволяет предвидеть социальные последствия внедрения тех или иных методов контроля. Вместе мы строим надежный цифровой щит, способный выдержать любые испытания временем и прогрессом.</p>
<p>Влияние глубоких фейков на политические процессы заставляет правительства многих стран пересматривать подходы к обеспечению чистоты выборов и легитимности информации. Использование нейросетей для мониторинга политической рекламы и выступлений кандидатов позволяет своевременно маркировать сомнительный контент для избирателей. Обучение систем выявлять скоординированные атаки ботов, распространяющих видеоподделки, является важным элементом защиты демократических институтов. Технологии верификации должны работать прозрачно, предоставляя пользователям возможность самостоятельно ознакомиться с доказательствами подделки. Это укрепляет гражданское общество и делает его более устойчивым к внешним манипуляциям и гибридным угрозам. Мы верим, что разумное использование технологий верификации станет надежной опорой для развития правового государства в цифровую эпоху.</p>
<p><strong>Заключение</strong><strong></strong></p>
<p>Роль фундаментальной науки в понимании механизмов генерации и детекции смыслов в цифровом пространстве будет только возрастать. Лингвистический анализ текстов, сопровождающих видеофейки, позволяет выявлять характерные стилистические паттерны, типичные для бот-сетей. Обучение междисциплинарных команд исследователей на стыке физики, математики и психологии дает наиболее прорывные результаты в области безопасности. Мы изучаем саму природу цифрового изображения на пиксельном уровне для поиска неоспоримых доказательств его происхождения. Каждый научный грант и каждая диссертация в этой области приближают нас к созданию идеального детектора. Знания остаются нашей главной силой в противостоянии с организованной дезинформацией.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2026/02/104231/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
