Влияние состязательных атак на модели глубокого обучения
Представлен сравнительный анализ устойчивости современных архитектур глубокого обучения к состязательным атакам. Объектом исследования выступают три модели различного типа — EfficientNet-B0, MobileNetV2 и Vision Transformer (ViT-B16), отражающие эволюцию архитектур от сверточных сетей к трансформерным подходам. Экспериментальная часть работы выполнена на медицинском датасете ISIC‑2019, включающем изображения кожных новообразований. Для оценки устойчивости использован комплекс цифровых и физических атак, включающих DeepFool, Carlini — Wagner, AutoAttack, Boundary Attack и Patch Attack. Проведенный анализ показал, что все исследуемые модели демонстрируют значительную уязвимость к целенаправленным возмущениям: оптимизационные методы снижают точность классификации более чем на 55 п. п., а физические атаки приводят к разрушению предсказаний даже при отсутствии доступа к внутренним параметрам модели. Vision Transformer (ViT-B16) проявил относительную устойчивость к малым возмущениям, что указывает на потенциал архитектур внимания в задачах повышения робастности, однако полная защита не достигается. Результаты подтверждают необходимость разработки интегрированных подходов к обеспечению устойчивости к состязательным атакам, включая архитектурные модификации, методы регуляризации и адаптивное обучение, что особенно актуально для применения в критически важных областях — медицине, транспорте и системах безопасности.