Введение
Социальная инженерия представляет собой совокупность методов психологического воздействия на человека с целью получения конфиденциальной информации или несанкционированного доступа к информационным системам. В отличие от технических методов взлома, социальная инженерия использует уязвимости человеческого поведения: доверие, невнимательность, страх или авторитет.
По данным международных исследований в области кибербезопасности, значительная часть успешных кибератак начинается именно с социальной инженерии. Чаще всего злоумышленники используют фишинговые письма, поддельные телефонные звонки, сообщения в социальных сетях и другие способы манипуляции пользователями.
Развитие технологий искусственного интеллекта стало одним из ключевых факторов трансформации современных киберугроз. Генеративные модели способны автоматически создавать тексты, изображения и аудиоматериалы, которые практически невозможно отличить от реальных. Это позволяет злоумышленникам создавать более убедительные сценарии мошенничества и значительно увеличивает масштаб возможных атак. [1, 2]
В результате социальная инженерия постепенно переходит от примитивных массовых атак к сложным и персонализированным операциям, направленным на конкретных пользователей или организации.
Цель исследования – анализ трансформации социальной инженерии под влиянием технологий искусственного интеллекта и выявление основных направлений развития методов защиты.
Методология исследования
В рамках исследования использовались следующие методы:
- анализ научных публикаций и отчетов в области кибербезопасности;
- сравнительный анализ традиционных и современных методов социальной инженерии;
- систематизация угроз с учетом использования технологий искусственного интеллекта;
- экспертная оценка рисков для пользователей и организаций.
Исследование также опирается на статистические данные международных организаций в области кибербезопасности и анализа угроз информационным системам.
Эволюция методов социальной инженерии
Традиционно атаки социальной инженерии включали такие методы, как фишинг, телефонное мошенничество и поддельные электронные письма. Однако внедрение технологий искусственного интеллекта существенно расширило возможности злоумышленников. [1]
Таблица 1. Основные технологии, используемые в атаках [2, 3]
|
Период |
Основные методы |
Характер атак |
| До 2018 г. |
Массовый фишинг |
Низкая персонализация |
| 2019-2022 гг. |
Целевой фишинг |
Использование персональных данных |
| 2023-2025 гг. |
AI-фишинг, deepfake-атаки |
Высокая автоматизация и реалистичность |
Современные системы генеративного ИИ способны анализировать большие объемы информации из социальных сетей и открытых источников. На основе этих данных создаются персонализированные сообщения, значительно повышающие вероятность успешной атаки.
Использование искусственного интеллекта в атаках
Искусственный интеллект существенно расширил возможности злоумышленников. Использование автоматизированных систем позволяет проводить атаки быстрее и эффективнее. [2, 3]
Таблица 2. Основные технологии ИИ, используемые в атаках [1]
|
Технология |
Применение злоумышленниками |
Возможные последствия |
| Генеративные языковые модели |
Создание фишинговых писем |
Кража учетных данных |
| Deepfake-технологии |
Имитация голоса или видео руководителя |
Финансовые мошенничества |
| Анализ больших данных |
Персонализация атак |
Повышение эффективности атак |
| Чат-боты |
Автоматизация общения с жертвой |
Социальная манипуляция |
Одним из наиболее опасных направлений является использование deepfake-технологий. С их помощью можно создавать реалистичные видеозаписи и голосовые сообщения, имитирующие руководителей компаний или сотрудников организаций.
Известны случаи, когда злоумышленники использовали синтезированный голос руководителя компании для передачи указаний сотрудникам о переводе денежных средств на подставные счета.
Основные риски для организаций
Использование искусственного интеллекта в социальной инженерии приводит к следующим рискам:
- Рост эффективности атак. Персонализированные сообщения значительно повышают вероятность того, что пользователь выполнит указания злоумышленника.
- Автоматизация киберпреступности. AI-инструменты позволяют проводить массовые атаки с минимальными затратами.
- Сложность обнаружения. Сообщения, созданные ИИ, часто практически не отличаются от легитимных.
- Комбинирование с другими кибератаками. Социальная инженерия может использоваться для первоначального доступа к корпоративным системам.
Особую опасность представляют атаки, направленные на сотрудников с высоким уровнем доступа к корпоративным системам. [3, 4]
Методы противодействия
Для снижения рисков, связанных с использованием искусственного интеллекта в социальной инженерии, необходимо внедрение комплексных мер защиты. [4, 5]
Таблица 3. Перспективные методы защиты [5]
|
Метод |
Назначение |
Преимущества |
| Обучение персонала |
Повышение осведомленности пользователей |
Снижение риска успешных атак |
| Многофакторная аутентификация |
Защита учетных записей |
Сложность компрометации |
| AI-системы обнаружения |
Анализ аномального поведения |
Ранее выявление атак |
| Проверка цифровых подписей |
Подтверждения подлинности сообщений |
Предотвращение подделок |
Дополнительно рекомендуется внедрение систем мониторинга безопасности, которые используют технологии машинного обучения для анализа сетевого трафика и поведения пользователей.
Заключение
Проведенное исследование показывает, что развитие технологий искусственного интеллекта оказывает существенное влияние на трансформацию социальной инженерии. Современные методы атак становятся более сложными, автоматизированными и персонализированными. Использование генеративных моделей и deepfake-технологий позволяет злоумышленникам создавать убедительные сценарии мошенничества, способные обойти традиционные методы защиты.
В этих условиях обеспечение информационной безопасности требует комплексного подхода, включающего использование современных технических средств защиты, повышение уровня цифровой грамотности пользователей и внедрение систем мониторинга киберугроз. Только сочетание организационных и технологических мер позволит эффективно противостоять современным атакам социальной инженерии.
Библиографический список
- Hadnagy, C. Social Engineering: The Science of Human Hacking [Текст] / C. Hadnagy. – 2nd Edition. – Indianapolis : John Wiley & Sons, 2018. – 304 p.
- Обзор научных работ по социальной инженерии [Текст] / [авт.-сост. А.А. Иванов и др.] // Научно-аналитический журнал «Вестник Санкт-Петербургского университета ГПС МЧС России». – 2025. – № 4. – С. 94–106. – DOI: 10.61260/2218-130X-2025-4-94-106.
- Государственная техническая служба Республики Казахстан. Кибердайджест 2025 / Государственная техническая служба Республики Казахстан. - Астана, 2025. - 96 с.
- Khadka K., Ma W. Persuasion and Phishing in Social Engineering Attacks. – 2024.
- Лукацкий А. Информационная безопасность и современные киберугрозы. – Москва, 2021.
