doi: 10.17586/2226-1494-2024-24-6-1066-1070


УДК 004.89

Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method

Тетерев Н.В., Трифонов В.Е., Левина А.Б.


Читать статью полностью 
Язык статьи - русский

Ссылка для цитирования:
Тетерев Н.В., Трифонов В.Е., Левина А.Б. Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method // Научно-технический вестник информационных технологий, механики и оптики. 2024. Т. 24, № 6. С. 1066–1070. doi: 10.17586/2226-1494-2024-24-6-1066-1070 


Аннотация
Представлен анализ формализованных условий создания универсальных изображений, ложно классифицируемых алгоритмами компьютерного зрения, называемыми состязательными примерами, на нейросетевые модели YOLO. Выявлена и исследована закономерность успешного создания универсального деструктивного изображения в зависимости от сгенерированного набора данных, на котором происходило обучение нейронных сетей с помощью атаки Fast Sign Gradient Method. Указанная закономерность продемонстрирована для моделей классификатора YOLO8, YOLO9, YOLO10, YOLO11, обученных на стандартном наборе данных COCO. 

Ключевые слова: генеративные атаки, состязательный пример, YOLO, COCO, набор данных, нейронная сеть

Благодарности. Работа выполнена в рамках государственного задания Министерства науки и высшего образования Российской Федерации № 075-00003-24-01 от 08.02.2024 (проект FSEE-2024-0003).

Список литературы
  1. Chakraborty A., Alam M., Dey V., Chattopadhyay A., Mukhopadhyay D. Adversarial attacks and defences: A survey // arXiv. 2018. arXiv:1810.00069v1. https://doi.org/10.48550/arXiv.1810.00069
  2. Akhtar N., Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey // IEEE Access. 2018. V. 6. P. 14410–14430. https://doi.org/10.1109/access.2018.2807385
  3. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // Proc. of the 3rd International Conference on Learning Representations, ICLR 2015. 2015.
  4. Zhang C., Zhang H., Hsieh C.-J. An efficient adversarial attack for tree ensembles // Advances in Neural Information Processing Systems. 2020. V. 33.
  5. Xiong P., Tegegn M., Sarin J.S., Pal S., Rubin J. It is all about data: A survey on the effects of data on adversarial robustness // ACM Computing Surveys. 2024. V. 56. N 7. P. 1–41. https://doi.org/10.1145/3627817
  6. Zuo C. Regularization effect of fast gradient sign method and its generalization // arXiv. 2018. arXiv:1810.11711. https://doi.org/10.48550/arXiv.1810.11711
  7. Yosinski J., Clune J., Nguyen A., Fuchs T., Lipson H.Understanding neural networks through deep visualization // arXiv. 2015. arXiv:1506.06579v1. https://doi.org/10.48550/arXiv.1506.06579
  8. Carlini N., Wagner D. Towards evaluating the robustness of neural networks // Proc. of the IEEE Symposium on Security and Privacy (SP). 2017. P. 39–57. https://doi.org/10.1109/sp.2017.49
  9. Li Z., Chen P.-Y., Liu S., Lu S., Xu Y. Zeroth-order optimization for composite problems with functional constraints // Proceedings of the AAAI Conference on Artificial Intelligence. 2022. V. 36. N 7. P. 7453–7461. https://doi.org/10.1609/aaai.v36i7.20709
  10. Guo C., Gardner J., You Y., Wilson A., Weinberger K. Simple black-box adversarial attacks // Proceedings of Machine Learning Research. 2019. V. 97. P. 2484–2493.


Creative Commons License

This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License
Информация 2001-2025 ©
Научно-технический вестник информационных технологий, механики и оптики.
Все права защищены.

Яндекс.Метрика