Меню
Публикации
2025
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
2014
2013
2012
2011
2010
2009
2008
2007
2006
2005
2004
2003
2002
2001
Главный редактор

НИКИФОРОВ
Владимир Олегович
д.т.н., профессор
Партнеры
doi: 10.17586/2226-1494-2024-24-6-1066-1070
УДК 004.89
Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method
Читать статью полностью

Язык статьи - русский
Ссылка для цитирования:
Аннотация
Ссылка для цитирования:
Тетерев Н.В., Трифонов В.Е., Левина А.Б. Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method // Научно-технический вестник информационных технологий, механики и оптики. 2024. Т. 24, № 6. С. 1066–1070. doi: 10.17586/2226-1494-2024-24-6-1066-1070
Аннотация
Представлен анализ формализованных условий создания универсальных изображений, ложно классифицируемых алгоритмами компьютерного зрения, называемыми состязательными примерами, на нейросетевые модели YOLO. Выявлена и исследована закономерность успешного создания универсального деструктивного изображения в зависимости от сгенерированного набора данных, на котором происходило обучение нейронных сетей с помощью атаки Fast Sign Gradient Method. Указанная закономерность продемонстрирована для моделей классификатора YOLO8, YOLO9, YOLO10, YOLO11, обученных на стандартном наборе данных COCO.
Ключевые слова: генеративные атаки, состязательный пример, YOLO, COCO, набор данных, нейронная сеть
Благодарности. Работа выполнена в рамках государственного задания Министерства науки и высшего образования Российской Федерации № 075-00003-24-01 от 08.02.2024 (проект FSEE-2024-0003).
Список литературы
Благодарности. Работа выполнена в рамках государственного задания Министерства науки и высшего образования Российской Федерации № 075-00003-24-01 от 08.02.2024 (проект FSEE-2024-0003).
Список литературы
- Chakraborty A., Alam M., Dey V., Chattopadhyay A., Mukhopadhyay D. Adversarial attacks and defences: A survey // arXiv. 2018. arXiv:1810.00069v1. https://doi.org/10.48550/arXiv.1810.00069
- Akhtar N., Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey // IEEE Access. 2018. V. 6. P. 14410–14430. https://doi.org/10.1109/access.2018.2807385
- Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // Proc. of the 3rd International Conference on Learning Representations, ICLR 2015. 2015.
- Zhang C., Zhang H., Hsieh C.-J. An efficient adversarial attack for tree ensembles // Advances in Neural Information Processing Systems. 2020. V. 33.
- Xiong P., Tegegn M., Sarin J.S., Pal S., Rubin J. It is all about data: A survey on the effects of data on adversarial robustness // ACM Computing Surveys. 2024. V. 56. N 7. P. 1–41. https://doi.org/10.1145/3627817
- Zuo C. Regularization effect of fast gradient sign method and its generalization // arXiv. 2018. arXiv:1810.11711. https://doi.org/10.48550/arXiv.1810.11711
- Yosinski J., Clune J., Nguyen A., Fuchs T., Lipson H.Understanding neural networks through deep visualization // arXiv. 2015. arXiv:1506.06579v1. https://doi.org/10.48550/arXiv.1506.06579
- Carlini N., Wagner D. Towards evaluating the robustness of neural networks // Proc. of the IEEE Symposium on Security and Privacy (SP). 2017. P. 39–57. https://doi.org/10.1109/sp.2017.49
- Li Z., Chen P.-Y., Liu S., Lu S., Xu Y. Zeroth-order optimization for composite problems with functional constraints // Proceedings of the AAAI Conference on Artificial Intelligence. 2022. V. 36. N 7. P. 7453–7461. https://doi.org/10.1609/aaai.v36i7.20709
- Guo C., Gardner J., You Y., Wilson A., Weinberger K. Simple black-box adversarial attacks // Proceedings of Machine Learning Research. 2019. V. 97. P. 2484–2493.