Меню
Публикации
2025
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
2014
2013
2012
2011
2010
2009
2008
2007
2006
2005
2004
2003
2002
2001
Главный редактор

НИКИФОРОВ
Владимир Олегович
д.т.н., профессор
Партнеры
doi: 10.17586/2226-1494-2025-25-1-169-173
УДК 004.852
Маргун А.А., Зименко К.А., Бобцов А.А.
Использование метода динамического расширения и смешивания регрессора для задач машинного обучения на примере перцептрона
Использование метода динамического расширения и смешивания регрессора для задач машинного обучения на примере перцептрона
Читать статью полностью

Язык статьи - русский
Ссылка для цитирования:
Аннотация
Ссылка для цитирования:
Маргун А.А., Зименко К.А., Бобцов А.А. Использование метода динамического расширения и смешивания регрессора для задач машинного обучения на примере перцептрона // Научно-технический вестник информационных технологий, механики и оптики. 2025. Т. 25, № 1. С. 169–173. doi: 10.17586/2226-1494-2025-25-1-169-173
Аннотация
Рассмотрено использование метода динамического расширения и смешивания регрессора для повышения скорости обучения в задачах машинного обучения. Предложенный подход продемонстрирован на примере перцептрона, применяемого для задач регрессии и бинарной классификации. Метод позволяет преобразовать мультипараметрическую задачу оптимизации в набор независимых скалярных регрессий, что значительно ускоряет сходимость алгоритма и снижает вычислительные затраты. Результаты компьютерного моделирования, включающие сравнение с методами стохастического градиентного спуска и Adam, подтвердили преимущество предложенного подхода для скорости сходимости и эффективности вычислений.
Ключевые слова: перцептрон, регрессия, бинарная классификация, машинное обучение, динамическое расширение и смешивание регрессора
Благодарности. Исследование поддержано Министерством науки и высшего образования Российской Федерации (проект № FSER-2025-0002).
Список литературы
Благодарности. Исследование поддержано Министерством науки и высшего образования Российской Федерации (проект № FSER-2025-0002).
Список литературы
- Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain // Psychological Review. 1958. V. 65. N 6. P. 386–408. https://doi.org/10.1037/h0042519
- Хайкин С. Нейронные сети: Полный курс. 2-е изд. М.: «Вильямс», 2006. 1103 с.
- Karthick K. Comprehensive Overview of Optimization Techniques in Machine Learning Training // Control Systems and Optimization Letters. 2024. V. 2. N 1. P. 23–27. https://doi.org/10.59247/csol.v2i1.69
- Reyad M., Sarhan A.M., Arafa M. A modified Adam algorithm for deep neural network optimization // Neural Computing and Applications. 2023. V. 35. N 23. P. 17095–17112. https://doi.org/10.1007/s00521-023-08568-z
- Wang Y., Xiao Z., Cao G. A convolutional neural network method based on Adam optimizer with power-exponential learning rate for bearing fault diagnosis // Journal of Vibroengineering. 2022. V. 24. N 4. P. 666–678. https://doi.org/10.21595/jve.2022.22271
- Liu M., Yao D., Liu Z., Guo J., Chen J. An improved Adam optimization algorithm combining adaptive coefficients and composite gradients based on randomized block coordinate descent // Computational Intelligence and Neuroscience. 2023. V. 10. N 1. P. 4765891. https://doi.org/10.1155/2023/4765891
- Демиденко Е.З. Линейная и нелинейная регрессия. М.: Финансы и статистика, 1981. 302 с.
- Aranovskiy S., Bobtsov A., Ortega R., Pyrkin A. Performance enhancement of parameter estimators via dynamic regressor extension and mixing // IEEE Transactions on Automatic Control. 2017. V. 62. N 7. https://doi.org/10.1109/tac.2016.2614889
- Ljung L. System Identification: Theory for the User. Prentice-Hall, 1987. 519 p.