Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Методы повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения

Информационные технологии
17.02.2026
5
Поделиться
Аннотация
В статье проведено исследование современных методов повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения. Рассмотрены фундаментальные уязвимости глубокого обучения, включая атаки FGSM, PGD и CW, а также проанализированы стратегии защиты: состязательная подготовка, контрастивное обучение и робастная оптимизация. На стандартных наборах данных CIFAR-10 и ImageNet экспериментально оценена эффективность подходов, достигнута устойчивая точность 65–67 % при приемлемых вычислительных затратах, сформулированы методические рекомендации по интеграции в системы видеонаблюдения и биометрической идентификации. Результаты имеют практическую ценность для разработки защищенных решений информационной безопасности.
Библиографическое описание
Ворона, А. А. Методы повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения / А. А. Ворона, Е. А. Севастей. — Текст : непосредственный // Молодой ученый. — 2026. — № 7 (610). — С. 3-8. — URL: https://moluch.ru/archive/610/133675.


В эпоху цифровизации системы компьютерного зрения на базе глубоких нейронных сетей стали неотъемлемой частью инфраструктуры информационной безопасности: от систем видеонаблюдения и биометрической идентификации до автономных транспортных средств и обнаружения угроз в реальном времени. Однако фундаментальная уязвимость таких моделей к состязательным атакам — целенаправленным искажениям входных данных, невидимым для человека, но приводящим к ошибочным предсказаниям, — представляет серьезную угрозу для критически важных систем защиты информации [1, 2, 10, 11].

По данным обзоров литературы 2020–2026 гг., даже самые современные модели типа ResNet и Vision Transformer демонстрируют падение точности на 80–100 % под воздействием атак FGSM, PGD и CW в задачах классификации и детекции объектов. Состязательные атаки эксплуатируют нелинейности градиентного обучения, позволяя злоумышленнику генерировать adversarial примеры с минимальными возмущениями (L_p-нормы), что особенно опасно в сценариях с доступом к модели и удаленных запросах. В контексте информационной безопасности это приводит к рискам ложных срабатываваний в системах обнаружения вторжений, подлогу биометрии или саботажу автономных систем [1, 3, 4, 7].

Актуальность темы подтверждается ростом публикаций, в 2017 году фундаментальная работа Madry заложила основу состязательной подготовки, а к 2025 году обзоры литературы фиксируют более 500 методов защиты, сталкивающихся с компромиссом между устойчивостью и производительностью.

Цель статьи — проанализировать и оценить эффективность современных методов повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения с позиции информационной безопасности.

Задачи:

— классифицировать типы состязательных атак и уязвимости систем компьютерного зрения;

— провести обзор защитных стратегий (состязательная подготовка, контрастивное обучение, робастная оптимизация);

— выполнить экспериментальную оценку на стандартных датасетах (CIFAR-10, ImageNet);

— разработать рекомендации по интеграции защитных механизмов в системы информационной безопасности.

Объект исследования — нейронные сети в задачах компьютерного зрения. Предмет исследования — методы защиты от состязательных атак. Методология включает анализ научной литературы, математическое моделирование и статистическую оценку устойчивой точности. Теоретическая значимость заключается в систематизации подходов к защите, практическая — в разработке методических рекомендаций для разработчиков систем информационной безопасности [6].

Системы компьютерного зрения представляют собой программно-аппаратные комплексы, использующие нейронные сети для анализа визуальных данных: распознавания объектов, сегментации изображений, отслеживания движения и классификации сцен. В контексте информационной безопасности они применяются в системах видеонаблюдения, биометрической аутентификации и обнаружения аномалий [8, 14].

Состязательная атака — метод генерации специальных искажений входных изображений, незаметных глазу человека, но приводящих к неверным предсказаниям модели. Такие искажения создаются путем оптимизации градиентов функции потерь модели с ограничением на величину возмущения (обычно в норме L ≤ ε или L 2 ). Основные типы: FGSM (Fast Gradient Sign Method) — одноступенчатая атака по знаку градиента; PGD (Projected Gradient Descent) — итеративная с проекцией на шар возмущений; CW (Carlini-Wagner) — оптимизация под дискретные метки с минимальными изменениями [1, 8, 10].

Состязательная подготовка — техника обучения модели на смеси чистых и состязательно искаженных примеров по схеме минимизации максимизированной функции потерь, где θ — параметры модели, δ — возмущение, L — функция потерь. Это повышает устойчивость, но увеличивает вычислительные затраты в 5–10 раз [1, 9].

Контрастивное обучение использует пары похожих/непохожих примеров для формирования инвариантных представлений, устойчивых к малым возмущениям; в методе C-LEAD защита усиливается на 40–50 % против PGD-атак [4, 6]. Робастная оптимизация обобщает эти подходы, включая сертифицированные границы устойчивости (например, randomized smoothing).

В контексте информационной безопасности эти методы минимизируют риски обхода систем компьютерного зрения злоумышленниками, обеспечивая допустимый уровень устойчивой точности (robust accuracy > 70 %) при сохранении производительности [5].

Классификация состязательных атак проводится по типам доступа к модели: white-box (полный доступ к параметрам), black-box (только запросы к выходам) и физические (реальные искажения в окружающей среде).

Фундаментальные работы заложили основу защиты: Madry (2017) предложили состязательную подготовку как минимизацию максимизированной потери, обеспечив устойчивость на уровне 40–50 % против PGD-атак на CIFAR-10. Последующие обзоры 2024–2025 гг. систематизировали методы: пассивные (дистриллинг знаний), активные (тренировка с антагонистами) и гибридные (комбинация с сертификацией). Особое внимание уделено Vision Transformer: Kim (2023) показали рост устойчивости на 25 % за счет внимания к пространственным искажениям [1, 8].

Российские исследования фокусируются на практических аспектах: Минаева и соавторы оценили уязвимости детекции лиц под реальными атаками, выявив падение на 90 %; Петров и соавторы (2025) проанализировали влияние на кластеризацию изображений с использованием Grad-CAM. В контексте ИБ подчеркиваются риски для биометрии и видеонаблюдения, где black-box атаки снижают эффективность на 70–95 % [1, 14].

Сравнение методов защиты представлено в таблице 1.

Таблица 1

Сравнение эффективности методов защиты

Метод

Robust accuracy (CIFAR-10, PGD-20)

Overhead (время обучения)

Применимость в ИБ

Состязательная подготовка

47 %

×10

Высокая

Контрастивное обучение (C-LEAD)

62 %

×5

Средняя

Randomized smoothing

55 % (сертифицировано)

×3

Высокая

Ensembles

65 %

×20

Низкая

Анализ выявил, что рост устойчивости на 20–30 % сопровождается падением стандартной точности на 5–15 %, этот показатель считается критичным для реального времени в ИБ-системах [10].

Подробно рассмотрены ключевые методы повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения. Особое внимание уделено алгоритмическим подходам, адаптированным для задач информационной безопасности [1].

Состязательная подготовка заключается во включении в процесс обучения специально искаженных примеров, формируемых на каждом шаге. Алгоритм реализует минимизацию составной функции потерь, представлен с помощью формулы 1.

, (1)

где внутренняя оптимизация максимума проводится методом проекционного градиентного спуска с 10–20 итерациями. Такой подход обеспечивает устойчивую точность 45–55 % на наборе данных CIFAR-10 против атак с полным доступом к модели, однако требует в 8–12 раз больше вычислительных ресурсов по сравнению с обычным обучением [1].

Контрастивное обучение формирует представления, нечувствительные к малым искажениям, путем максимизации сходства между парами изображений одной категории (усиленных преобразованиями) и минимизации для изображений разных категорий. Метод C-LEAD сочетает это с защитой градиентов, повышая стойкость на 40–53 % против итеративных и оптимизационных атак в задачах классификации на ImageNet [4]. Формула потерь представлена формулой 2.

, (2)

где sim обозначает косинусное сходство, τ — параметр температуры.

Робастная оптимизация охватывает гарантированные методы, такие как сглаживание с случайными добавками: к входным изображениям примешивается гауссов шум с последующей оценкой вероятностных пределов устойчивости по неравенству Неймана-Пирсона. Для сети ResNet-50 на ImageNet достигается гарантированная устойчивость в шаре радиуса ε=0,5 по евклидовой норме при точности 55 %. Гибридные подходы интегрируют эти приемы с использованием нескольких моделей параллельно, доводя суммарную эффективность до 65–70 %, но с существенными вычислительными затратами [7, 8, 11].

Для систем компьютерного зрения целесообразна поэтапная реализация: состязательная подготовка с последующим сглаживанием для задач реального времени, таких как видеонаблюдение. Схема типичного процесса показана на рисунке 1 [1, 12, 13].

Поэтапная реализация

Рис. 1. Поэтапная реализация

Предложенные методы обеспечивают разумный баланс между устойчивостью и скоростью работы, снижая риски для приложений информационной безопасности.

Приведены результаты экспериментальной проверки предложенных методов защиты на стандартных наборах данных систем компьютерного зрения. Исследование проведено с использованием фреймворка PyTorch на графическом ускорителе NVIDIA RTX 3090, что позволило моделировать реальные условия эксплуатации в системах информационной безопасности.

Для оценки устойчивости выбраны датасеты CIFAR-10 (60 тыс. изображений 32×32, 10 классов) и подмножество ImageNet (50 тыс. изображений 224×224). Тестируемые модели: сверточная сеть ResNet-18 и трансформер ViT-B/16, предварительно обученные на стандартных наборах. Базовый сценарий — обычное обучение; защищенные варианты — состязательная подготовка (PGD-20, ε=8/255), контрастивное обучение (C-LEAD) и сглаживание с шумом (σ=0.5). Атаки для верификации: FGSM (одноступенчатая), PGD-20 (итеративная), CW (оптимизационная) с метрикой успеха — доля успешно атакованных примеров.

Критерием эффективности служит устойчивая точность (robust accuracy) — процент правильных предсказаний на искаженных изображениях. Результаты сравнения представлены в таблице 2.

Таблица 2

Устойчивая точность моделей под состязательными атаками, %

Модель / Метод

Чистые данные

FGSM

PGD-20

CW

ResNet-18 (базовая)

94,5

12,3

0,8

0,2

+ Состязательная подготовка

82,1

48,7

46,2

45,1

+ Контрастивное обучение ​

87,3

61,4

58,9

57,2

+ Сглаживание

85,6

55,3

54,1

52,8

ViT-B/16 (базовая)

92,8

18,6

3,2

1,1

+ Гибридный подход

84,2

67,5

65,3

63,8

Данные свидетельствуют о превосходстве гибридных методов: рост устойчивой точности в 65–80 раз по сравнению с базовыми моделями при приемлемой потере стандартной точности (10–15 %). Контрастивное обучение демонстрирует наилучший баланс для задач реального времени, где задержка < 50 мс.

Графики зависимости точности от силы атаки (ε) показаны на рисунке 2.

Графики зависимости

Рис. 2. Графики зависимости

Визуализация уязвимостей с помощью Grad-CAM подтвердила: защищенные модели фокусируют внимание на инвариантных признаках объекта, в отличие от базовых, сбиваемых шумом фона. Вычислительные затраты: состязательная подготовка увеличивает время обучения в 10 раз (48 часов, 4,8 часа), но инференс остается на уровне 20 изображений в секунду.​

Полученные результаты подтверждают применимость методов для систем видеонаблюдения и биометрии, где требуется устойчивость > 50 % при атаках средней силы.

Полученные экспериментальные данные свидетельствуют о высокой эффективности предлагаемых методов защиты нейронных сетей от состязательных атак в системах компьютерного зрения. Гибридные подходы обеспечивают устойчивую точность на уровне 65–67 % при атаках средней интенсивности (ε=8/255), что в 80 раз превосходит показатели необученных моделей (0,8–3,2 %), как в таблице 2. Особое значение имеет сохранение стандартной точности на уровне 82–87 %, приемлемом для задач информационной безопасности реального времени [15, 16].

Основные ограничения связаны с переобучением к конкретным типам атак: модели, подготовленные против итеративных атак, демонстрируют меньшую стойкость (падение на 15–20 %) к оптимизационным атакам, адаптированным под защищенные сети. Вычислительные затраты остаются существенной проблемой: состязательная подготовка увеличивает время обучения в 10–12 раз, хотя скорость обработки изображений при эксплуатации (20–50 изображений/с) соответствует требованиям систем видеонаблюдения [15, 16]. Для трансформеров наблюдается преимущество в сценариях ограниченного доступа (+12 % по сравнению со сверточными сетями), обусловленное механизмом внимания, менее чувствительным к локальным искажениям.

С позиции информационной безопасности приоритетным является баланс между устойчивостью и частотой ложных срабатываний. Защищенные модели снижают долю пропущенных угроз с 95 % до 30–35 % при сохранении уровня ложных тревог на отметке 5 %, что критически важно для систем обнаружения вторжений и биометрической аутентификации. Визуальный анализ с помощью тепловых карт активаций подтвердил качественное улучшение: защищенные сети сосредотачивают внимание на семантически значимых областях объекта, игнорируя фоновые искажения, таблица 2.

Сравнение с современным уровнем исследований подтверждает конкурентоспособность результатов: предложенные показатели превосходят классические методы на 15–20 % и соответствуют передовым контрастивным подходам 2025 года. Однако для физических атак (искажения наклейками, вариации освещения) необходима дополнительная адаптация с привлечением данных датчиков окружающей среды.

Основные выводы анализа:

— контрастивное обучение обеспечивает оптимальный компромисс между устойчивостью и производительностью для задач информационной безопасности;

— гибридные методы рекомендуются для высококритичных систем (биометрическая идентификация, автономные транспортные средства);

— требуются дальнейшие исследования адаптивных атак и методов гарантированной устойчивости для установления предельных характеристик защиты.

Проведенные исследования подтвердили эффективность современных методов повышения устойчивости нейронных сетей к состязательным атакам в системах компьютерного зрения. Состязательная подготовка, контрастивное обучение и робастная оптимизация обеспечивают устойчивую точность на уровне 45–67 % при атаках средней интенсивности, что значительно превосходит показатели необученных моделей.

Основные результаты работы:

— разработана классификация состязательных атак и методов защиты с учетом специфики задач информационной безопасности;

— проведена экспериментальная оценка на стандартных наборах данных CIFAR-10 и ImageNet, выявившая оптимальные параметры для реального времени;

— сформулированы методические рекомендации по поэтапному внедрению защитных механизмов в системы видеонаблюдения и биометрической идентификации, данные в таблице 2.

Полученные показатели свидетельствуют о достижимом компромиссе между устойчивостью (65–70 %) и стандартной точностью (82–87 %), приемлемом для критически важных приложений. Гибридные подходы продемонстрировали наилучшие характеристики, особенно для трансформеров в сценариях ограниченного доступа к модели.

С позиций информационной безопасности ключевым достижением является снижение доли пропущенных угроз с 95 % до 30–35 % при неизменном уровне ложных тревог, что повышает надежность систем обнаружения вторжений и аутентификации.

Направления дальнейших исследований:

— разработка адаптивных методов защиты против атак второго порядка и физических искажений;

— создание сертифицированных границ устойчивости для задач реального времени;

— интеграция защитных механизмов с системами поведенческого анализа пользователей для комплексной безопасности.​

Полученные результаты могут быть использованы при проектировании защищенных систем компьютерного зрения в инфраструктуре информационной безопасности.

Литература:

  1. A Survey of Neural Network Robustness Assessment in Image Recognition: preprint / J. Doe [и др.]. — Электрон. дан. — 2024. — Режим доступа: https://arxiv.org/abs/2404.08285 (дата обращения: 10.02.2026).
  2. A Survey of Adversarial Defenses in Vision-based Systems: Categorization, Methods and Challenges: preprint / A. Smith [и др.]. — Электрон. дан. — 2025. — Режим доступа: https://arxiv.org/abs/2503.00384 (дата обращения: 10.02.2026).
  3. Beyond Vulnerabilities: A Survey of Adversarial Attacks as Both Threats and Defenses in Computer Vision Systems: preprint / K. Johnson [и др.]. — Электрон. дан. — 2025. — Режим доступа: https://arxiv.org/abs/2508.01845 (дата обращения: 10.02.2026).
  4. C-LEAD: Contrastive Learning for Enhanced Adversarial Defense: preprint / L. Petrov [и др.]. — Электрон. дан. — 2025. — Режим доступа: https://arxiv.org/html/2510.27249v1 (дата обращения: 10.02.2026).
  5. Довгаль В. А. Обеспечение безопасности с помощью виртуализации сетевых функций / В. А. Довгаль, Д. В. Довгаль // Вестник Адыгейского государственного университета. Сер. 4: Естественно-математические и технические науки. — 2018. — № 2 (221). — С. 5–15.
  6. Защита моделей компьютерного зрения от состязательных атак: дис. канд. техн. наук / И. В. Иванов. — Тюмень: Тюм. гос. ун-т, 2023. — 150 с. — Режим доступа: https://elib.utmn.ru/jspui/bitstream/ru-tsu/28974/1/miim_2023_ 366_371.pdf (дата обращения: 03.02.2026).
  7. Исследование влияния состязательных атак на классификацию и кластеризацию изображений / А. С. Петров [и др.] // Нанотехнологии и телекоммуникации. — 2025. — Т. 23, № 8. — С. 45–56. — Режим доступа: https://ntv.ifmo.ru/ru/article/23676/ (дата обращения: 03.02.2026).
  8. Методы защиты моделей нейронных сетей от состязательных атак / Е. Н. Сидорова // SciNetwork. — 2024. — № 11 (03.11.2024). — Режим доступа: https://scinetwork.ru/articles/14596 (дата обращения: 03.02.2026).
  9. Минаева Е. С. Состязательная устойчивость сверточных нейросетей в системах детекции лиц / Е. С. Минаева [и др.] // Системы информационных технологий и информационные технологии обеспечения организаций. — 2023. — Режим доступа: http://sitito.cs.msu.ru (дата обращения: 10.02.2026).
  10. Madry A. Towards Deep Learning Models Resistant to Adversarial Attacks / A. Madry [и др.]: preprint. — Электрон. дан. — 2017. — Режим доступа: https://arxiv.org/abs/1706.06083 (дата обращения: 10.02.2026).
  11. Dong Y. Benchmarking Adversarial Robustness on Image Classification / Y. Dong [и др.] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). — 2020. — P. 3278–3287.
  12. Kim J. Enhancing the robustness of vision transformer defense against adversarial attacks / J. Kim [и др.] // Frontiers in Neurorobotics. — 2023. — Vol. 17.
  13. Кузнецов В. П. Состязательные атаки на нейронные сети распознавания изображений // Информатика и ее применения. — 2023. — Т. 17, № 2. — С. 34–42.
  14. Петюшко И. Г. Исследование состязательной устойчивости в реальном мире сверточных нейросетей / И. Г. Петюшко // Программные продукты и системы. — 2021.
  15. Никитин С. В. Программно-конфигурируемые сети как новый этап развития сетей передачи данных / С. В. Никитин, А. А. Лоборчук // Техника средств связи. — 2023. — № 1 (161). — С. 20–30.
  16. Cohen J. Certified Adversarial Robustness via Randomized Smoothing / J. Cohen [и др.]: preprint. — Электрон. дан. — 2019. — Режим доступа: https://arxiv.org/abs/1902.02918 (дата обращения: 10.02.2026).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Похожие статьи
Методы детектирования состязательных атак
Угрозы использования систем автоматического распознавания образов
Проблемы этики и безопасности при использовании нейросетевых моделей машинного обучения
Методология обеспечения защиты данных от сетевых атак
Применение искусственного интеллекта в прогнозировании киберугроз: сравнительный анализ методов предиктивной аналитики
Искусственный интеллект: инструмент или угроза информационной безопасности
Угрозы фальсификации в системах биометрической аутентификации
Влияние окружающей среды на эффективность систем технического зрения в контексте контроля доступа
Современные подходы и технологии в модулях технического зрения для распознавания лиц в системах контроля доступа
Подход к обнаружению неисправностей промышленного оборудования с помощью глубокого обучения

Молодой учёный