<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; генеративный искусственный интеллект</title>
	<atom:link href="http://web.snauka.ru/issues/tag/generativnyiy-iskusstvennyiy-intellekt/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 07:29:22 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Трансформация социальной инженерии в условиях развития технологий искусственного интеллекта</title>
		<link>https://web.snauka.ru/issues/2026/03/104343</link>
		<comments>https://web.snauka.ru/issues/2026/03/104343#comments</comments>
		<pubDate>Wed, 18 Mar 2026 12:45:38 +0000</pubDate>
		<dc:creator>author93821</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[deepfake-технологии]]></category>
		<category><![CDATA[генеративный искусственный интеллект]]></category>
		<category><![CDATA[информационная безопасность]]></category>
		<category><![CDATA[искусственный интеллект]]></category>
		<category><![CDATA[кибератаки]]></category>
		<category><![CDATA[кибербезопасность]]></category>
		<category><![CDATA[киберугрозы]]></category>
		<category><![CDATA[социальная инженерия]]></category>
		<category><![CDATA[фишинг]]></category>
		<category><![CDATA[человеческий фактор]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2026/03/104343</guid>
		<description><![CDATA[Введение Социальная инженерия представляет собой совокупность методов психологического воздействия на человека с целью получения конфиденциальной информации или несанкционированного доступа к информационным системам. В отличие от технических методов взлома, социальная инженерия использует уязвимости человеческого поведения: доверие, невнимательность, страх или авторитет. По данным международных исследований в области кибербезопасности, значительная часть успешных кибератак начинается именно с социальной инженерии. [...]]]></description>
			<content:encoded><![CDATA[<p><strong>Введение</strong></p>
<p>Социальная инженерия представляет собой совокупность методов психологического воздействия на человека с целью получения конфиденциальной информации или несанкционированного доступа к информационным системам. В отличие от технических методов взлома, социальная инженерия использует уязвимости человеческого поведения: доверие, невнимательность, страх или авторитет.</p>
<p>По данным международных исследований в области кибербезопасности, значительная часть успешных кибератак начинается именно с социальной инженерии. Чаще всего злоумышленники используют фишинговые письма, поддельные телефонные звонки, сообщения в социальных сетях и другие способы манипуляции пользователями.</p>
<p>Развитие технологий искусственного интеллекта стало одним из ключевых факторов трансформации современных киберугроз. Генеративные модели способны автоматически создавать тексты, изображения и аудиоматериалы, которые практически невозможно отличить от реальных. Это позволяет злоумышленникам создавать более убедительные сценарии мошенничества и значительно увеличивает масштаб возможных атак. [1, 2]</p>
<p>В результате социальная инженерия постепенно переходит от примитивных массовых атак к сложным и персонализированным операциям, направленным на конкретных пользователей или организации.</p>
<p>Цель исследования – анализ трансформации социальной инженерии под влиянием технологий искусственного интеллекта и выявление основных направлений развития методов защиты.</p>
<p><strong>Методология исследования</strong></p>
<p>В рамках исследования использовались следующие методы:</p>
<ol>
<li>анализ научных публикаций и отчетов в области кибербезопасности;</li>
<li>сравнительный анализ традиционных и современных методов социальной инженерии;</li>
<li>систематизация угроз с учетом использования технологий искусственного интеллекта;</li>
<li>экспертная оценка рисков для пользователей и организаций.</li>
</ol>
<p>Исследование также опирается на статистические данные международных организаций в области кибербезопасности и анализа угроз информационным системам.</p>
<p><strong>Эволюция методов социальной инженерии</strong></p>
<p>Традиционно атаки социальной инженерии включали такие методы, как фишинг, телефонное мошенничество и поддельные электронные письма. Однако внедрение технологий искусственного интеллекта существенно расширило возможности злоумышленников. [1]</p>
<p>Таблица 1. Основные технологии, используемые в атаках [2, 3]</p>
<table width="0" border="1" cellspacing="0" cellpadding="10">
<tbody>
<tr>
<td valign="top" width="197">
<p align="center"><strong>Период</strong></p>
</td>
<td valign="top" width="198">
<p align="center"><strong>Основные методы</strong></p>
</td>
<td valign="top" width="202">
<p align="center"><strong>Характер атак</strong></p>
</td>
</tr>
<tr>
<td valign="top" width="197">До 2018 г.</td>
<td valign="top" width="198">
<p align="center">Массовый фишинг</p>
</td>
<td valign="top" width="202">
<p align="center">Низкая персонализация</p>
</td>
</tr>
<tr>
<td valign="top" width="197">2019-2022 гг.</td>
<td valign="top" width="198">
<p align="center">Целевой фишинг</p>
</td>
<td valign="top" width="202">
<p align="center">Использование персональных данных</p>
</td>
</tr>
<tr>
<td valign="top" width="197">2023-2025 гг.</td>
<td valign="top" width="198">
<p align="center">AI-фишинг, deepfake-атаки</p>
</td>
<td valign="top" width="202">
<p align="center">Высокая автоматизация и реалистичность</p>
</td>
</tr>
</tbody>
</table>
<p>Современные системы генеративного ИИ способны анализировать большие объемы информации из социальных сетей и открытых источников. На основе этих данных создаются персонализированные сообщения, значительно повышающие вероятность успешной атаки.</p>
<p><strong>Использование искусственного интеллекта в атаках</strong></p>
<p>Искусственный интеллект существенно расширил возможности злоумышленников. Использование автоматизированных систем позволяет проводить атаки быстрее и эффективнее. [2, 3]</p>
<p>Таблица 2. Основные технологии ИИ, используемые в атаках [1]</p>
<table width="0" border="1" cellspacing="0" cellpadding="10">
<tbody>
<tr>
<td valign="top" width="197">
<p align="center"><strong>Технология</strong></p>
</td>
<td valign="top" width="204">
<p align="center"><strong>Применение злоумышленниками</strong></p>
</td>
<td valign="top" width="198">
<p align="center"><strong>Возможные последствия</strong></p>
</td>
</tr>
<tr>
<td valign="top" width="197">Генеративные языковые модели</td>
<td valign="top" width="204">
<p align="center">Создание фишинговых писем</p>
</td>
<td valign="top" width="198">
<p align="center">Кража учетных данных</p>
</td>
</tr>
<tr>
<td valign="top" width="197">Deepfake-технологии</td>
<td valign="top" width="204">
<p align="center">Имитация голоса или видео руководителя</p>
</td>
<td valign="top" width="198">
<p align="center">Финансовые мошенничества</p>
</td>
</tr>
<tr>
<td valign="top" width="197">Анализ больших данных</td>
<td valign="top" width="204">
<p align="center">Персонализация атак</p>
</td>
<td valign="top" width="198">
<p align="center">Повышение эффективности атак</p>
</td>
</tr>
<tr>
<td valign="top" width="197">Чат-боты</td>
<td valign="top" width="204">
<p align="center">Автоматизация общения с жертвой</p>
</td>
<td valign="top" width="198">
<p align="center">Социальная манипуляция</p>
</td>
</tr>
</tbody>
</table>
<p>Одним из наиболее опасных направлений является использование deepfake-технологий. С их помощью можно создавать реалистичные видеозаписи и голосовые сообщения, имитирующие руководителей компаний или сотрудников организаций.</p>
<p>Известны случаи, когда злоумышленники использовали синтезированный голос руководителя компании для передачи указаний сотрудникам о переводе денежных средств на подставные счета.</p>
<p><strong>Основные риски для организаций</strong></p>
<p>Использование искусственного интеллекта в социальной инженерии приводит к следующим рискам:</p>
<ol>
<li>Рост эффективности атак. Персонализированные сообщения значительно повышают вероятность того, что пользователь выполнит указания злоумышленника.</li>
<li>Автоматизация киберпреступности. AI-инструменты позволяют проводить массовые атаки с минимальными затратами.</li>
<li>Сложность обнаружения. Сообщения, созданные ИИ, часто практически не отличаются от легитимных.</li>
<li>Комбинирование с другими кибератаками. Социальная инженерия может использоваться для первоначального доступа к корпоративным системам.</li>
</ol>
<p>Особую опасность представляют атаки, направленные на сотрудников с высоким уровнем доступа к корпоративным системам. [3, 4]</p>
<p><strong>Методы противодействия</strong></p>
<p>Для снижения рисков, связанных с использованием искусственного интеллекта в социальной инженерии, необходимо внедрение комплексных мер защиты. [4, 5]</p>
<p>Таблица 3. Перспективные методы защиты [5]</p>
<table width="0" border="1" cellspacing="0" cellpadding="10">
<tbody>
<tr>
<td valign="top" width="197">
<p align="center"><strong>Метод</strong></p>
</td>
<td valign="top" width="198">
<p align="center"><strong>Назначение</strong></p>
</td>
<td valign="top" width="197">
<p align="center"><strong>Преимущества</strong></p>
</td>
</tr>
<tr>
<td valign="top" width="197">Обучение персонала</td>
<td valign="top" width="198">
<p align="center">Повышение осведомленности пользователей</p>
</td>
<td valign="top" width="197">
<p align="center">Снижение риска успешных атак</p>
</td>
</tr>
<tr>
<td valign="top" width="197">Многофакторная аутентификация</td>
<td valign="top" width="198">
<p align="center">Защита учетных записей</p>
</td>
<td valign="top" width="197">
<p align="center">Сложность компрометации</p>
</td>
</tr>
<tr>
<td valign="top" width="197">AI-системы обнаружения</td>
<td valign="top" width="198">
<p align="center">Анализ аномального поведения</p>
</td>
<td valign="top" width="197">
<p align="center">Ранее выявление атак</p>
</td>
</tr>
<tr>
<td valign="top" width="197">Проверка цифровых подписей</td>
<td valign="top" width="198">
<p align="center">Подтверждения подлинности сообщений</p>
</td>
<td valign="top" width="197">
<p align="center">Предотвращение подделок</p>
</td>
</tr>
</tbody>
</table>
<p>Дополнительно рекомендуется внедрение систем мониторинга безопасности, которые используют технологии машинного обучения для анализа сетевого трафика и поведения пользователей.</p>
<p><strong>Заключение</strong></p>
<p>Проведенное исследование показывает, что развитие технологий искусственного интеллекта оказывает существенное влияние на трансформацию социальной инженерии. Современные методы атак становятся более сложными, автоматизированными и персонализированными. Использование генеративных моделей и deepfake-технологий позволяет злоумышленникам создавать убедительные сценарии мошенничества, способные обойти традиционные методы защиты.</p>
<p>В этих условиях обеспечение информационной безопасности требует комплексного подхода, включающего использование современных технических средств защиты, повышение уровня цифровой грамотности пользователей и внедрение систем мониторинга киберугроз. Только сочетание организационных и технологических мер позволит эффективно противостоять современным атакам социальной инженерии.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2026/03/104343/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
