ТРАНСФОРМАЦИЯ СОЦИАЛЬНОЙ ИНЖЕНЕРИИ В УСЛОВИЯХ РАЗВИТИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Гарифуллин Ислам Рустамович1, Бобер Олег Николаевич1, Гутникевич Евгений Андреевич1
1Карагандинский технический университет имени Абылкаса Сагинова, студент 3 курса, Факультет инновационных технологий

Аннотация
В статье рассматривается трансформация методов социальной инженерии в условиях активного развития технологий искусственного интеллекта. Проведен анализ современных тенденций киберугроз, связанных с использованием генеративных моделей, систем автоматизации фишинга и технологий синтеза голоса и изображений. Показано, что внедрение искусственного интеллекта значительно повышает эффективность атак за счет автоматизации подготовки мошеннических сценариев и персонализации взаимодействия с потенциальными жертвами. Рассматриваются основные направления развития атак социальной инженерии, а также предлагаются меры противодействия, направленные на повышение уровня информационной безопасности пользователей и организаций.

Ключевые слова: , , , , , , , , ,


Рубрика: 05.00.00 ТЕХНИЧЕСКИЕ НАУКИ

Библиографическая ссылка на статью:
Гарифуллин И.Р., Бобер О.Н., Гутникевич Е.А. Трансформация социальной инженерии в условиях развития технологий искусственного интеллекта // Современные научные исследования и инновации. 2026. № 3 [Электронный ресурс]. URL: https://web.snauka.ru/issues/2026/03/104343 (дата обращения: 08.04.2026).

Введение

Социальная инженерия представляет собой совокупность методов психологического воздействия на человека с целью получения конфиденциальной информации или несанкционированного доступа к информационным системам. В отличие от технических методов взлома, социальная инженерия использует уязвимости человеческого поведения: доверие, невнимательность, страх или авторитет.

По данным международных исследований в области кибербезопасности, значительная часть успешных кибератак начинается именно с социальной инженерии. Чаще всего злоумышленники используют фишинговые письма, поддельные телефонные звонки, сообщения в социальных сетях и другие способы манипуляции пользователями.

Развитие технологий искусственного интеллекта стало одним из ключевых факторов трансформации современных киберугроз. Генеративные модели способны автоматически создавать тексты, изображения и аудиоматериалы, которые практически невозможно отличить от реальных. Это позволяет злоумышленникам создавать более убедительные сценарии мошенничества и значительно увеличивает масштаб возможных атак. [1, 2]

В результате социальная инженерия постепенно переходит от примитивных массовых атак к сложным и персонализированным операциям, направленным на конкретных пользователей или организации.

Цель исследования – анализ трансформации социальной инженерии под влиянием технологий искусственного интеллекта и выявление основных направлений развития методов защиты.

Методология исследования

В рамках исследования использовались следующие методы:

  1. анализ научных публикаций и отчетов в области кибербезопасности;
  2. сравнительный анализ традиционных и современных методов социальной инженерии;
  3. систематизация угроз с учетом использования технологий искусственного интеллекта;
  4. экспертная оценка рисков для пользователей и организаций.

Исследование также опирается на статистические данные международных организаций в области кибербезопасности и анализа угроз информационным системам.

Эволюция методов социальной инженерии

Традиционно атаки социальной инженерии включали такие методы, как фишинг, телефонное мошенничество и поддельные электронные письма. Однако внедрение технологий искусственного интеллекта существенно расширило возможности злоумышленников. [1]

Таблица 1. Основные технологии, используемые в атаках [2, 3]

Период

Основные методы

Характер атак

До 2018 г.

Массовый фишинг

Низкая персонализация

2019-2022 гг.

Целевой фишинг

Использование персональных данных

2023-2025 гг.

AI-фишинг, deepfake-атаки

Высокая автоматизация и реалистичность

Современные системы генеративного ИИ способны анализировать большие объемы информации из социальных сетей и открытых источников. На основе этих данных создаются персонализированные сообщения, значительно повышающие вероятность успешной атаки.

Использование искусственного интеллекта в атаках

Искусственный интеллект существенно расширил возможности злоумышленников. Использование автоматизированных систем позволяет проводить атаки быстрее и эффективнее. [2, 3]

Таблица 2. Основные технологии ИИ, используемые в атаках [1]

Технология

Применение злоумышленниками

Возможные последствия

Генеративные языковые модели

Создание фишинговых писем

Кража учетных данных

Deepfake-технологии

Имитация голоса или видео руководителя

Финансовые мошенничества

Анализ больших данных

Персонализация атак

Повышение эффективности атак

Чат-боты

Автоматизация общения с жертвой

Социальная манипуляция

Одним из наиболее опасных направлений является использование deepfake-технологий. С их помощью можно создавать реалистичные видеозаписи и голосовые сообщения, имитирующие руководителей компаний или сотрудников организаций.

Известны случаи, когда злоумышленники использовали синтезированный голос руководителя компании для передачи указаний сотрудникам о переводе денежных средств на подставные счета.

Основные риски для организаций

Использование искусственного интеллекта в социальной инженерии приводит к следующим рискам:

  1. Рост эффективности атак. Персонализированные сообщения значительно повышают вероятность того, что пользователь выполнит указания злоумышленника.
  2. Автоматизация киберпреступности. AI-инструменты позволяют проводить массовые атаки с минимальными затратами.
  3. Сложность обнаружения. Сообщения, созданные ИИ, часто практически не отличаются от легитимных.
  4. Комбинирование с другими кибератаками. Социальная инженерия может использоваться для первоначального доступа к корпоративным системам.

Особую опасность представляют атаки, направленные на сотрудников с высоким уровнем доступа к корпоративным системам. [3, 4]

Методы противодействия

Для снижения рисков, связанных с использованием искусственного интеллекта в социальной инженерии, необходимо внедрение комплексных мер защиты. [4, 5]

Таблица 3. Перспективные методы защиты [5]

Метод

Назначение

Преимущества

Обучение персонала

Повышение осведомленности пользователей

Снижение риска успешных атак

Многофакторная аутентификация

Защита учетных записей

Сложность компрометации

AI-системы обнаружения

Анализ аномального поведения

Ранее выявление атак

Проверка цифровых подписей

Подтверждения подлинности сообщений

Предотвращение подделок

Дополнительно рекомендуется внедрение систем мониторинга безопасности, которые используют технологии машинного обучения для анализа сетевого трафика и поведения пользователей.

Заключение

Проведенное исследование показывает, что развитие технологий искусственного интеллекта оказывает существенное влияние на трансформацию социальной инженерии. Современные методы атак становятся более сложными, автоматизированными и персонализированными. Использование генеративных моделей и deepfake-технологий позволяет злоумышленникам создавать убедительные сценарии мошенничества, способные обойти традиционные методы защиты.

В этих условиях обеспечение информационной безопасности требует комплексного подхода, включающего использование современных технических средств защиты, повышение уровня цифровой грамотности пользователей и внедрение систем мониторинга киберугроз. Только сочетание организационных и технологических мер позволит эффективно противостоять современным атакам социальной инженерии.


Библиографический список
  1. Hadnagy, C. Social Engineering: The Science of Human Hacking [Текст] / C. Hadnagy. – 2nd Edition. – Indianapolis : John Wiley & Sons, 2018. – 304 p.
  2. Обзор научных работ по социальной инженерии [Текст] / [авт.-сост. А.А. Иванов и др.] // Научно-аналитический журнал «Вестник Санкт-Петербургского университета ГПС МЧС России». – 2025. – № 4. – С. 94–106. – DOI: 10.61260/2218-130X-2025-4-94-106.
  3. Государственная техническая служба Республики Казахстан. Кибердайджест 2025 / Государственная техническая служба Республики Казахстан. - Астана, 2025. - 96 с.
  4. Khadka K., Ma W. Persuasion and Phishing in Social Engineering Attacks. – 2024.
  5. Лукацкий А. Информационная безопасность и современные киберугрозы. – Москва, 2021.


Все статьи автора «author93821»


© Если вы обнаружили нарушение авторских или смежных прав, пожалуйста, незамедлительно сообщите нам об этом по электронной почте.