Дослідження феномену подвійного спуску та порівняння мінімаксної апроксимації з L2-регуляризацією
DOI:
https://doi.org/10.31649/1681-7893-2025-49-1-36-43Ключові слова:
подвійнний спуск, L2-регуляризація, мінімаксна апроксимація, поліноміальні моделі, машинне навчання, аномаліїАнотація
У цій роботі досліджено феномен подвійного спуску та запропоновано використання мінімаксної апроксимації (L∞-норма) як альтернативу L2-регуляризації для покращення якості апроксимації моделей. Подвійний спуск описує залежність похибки від складності моделі: похибка спершу зменшується, потім зростає через перенавчання, а далі знову знижується. Проте в експериментах із моделлю без регуляризації було виявлено переважно зростаючу тенденцію похибки із короткими періодами спаду, що свідчить про неповний прояв феномену. Це, ймовірно, пов’язано з аномальними точками в даних, які спричинили експоненційне зростання похибки на високих ступенях. Було розглянуто три підходи: класичну модель без регуляризації, модель із L2-регуляризацією та мінімаксну апроксимацію. L2-регуляризація додала штраф за велику норму коефіцієнтів, що дозволило стабілізувати похибку та запобігти перенавчанню, особливо на високих ступенях полінома (200+). Мінімаксна апроксимація мінімізувала максимальну похибку, завдяки чому забезпечувала кращу стійкість до аномалій і перевершувала L2-регуляризацію на низьких ступенях (до 50). Результати підтвердили, що мінімаксна апроксимація є більш ефективною для задач із аномаліями, тоді як L2-регуляризація краще працює на складних моделях із високими ступенями полінома. Отримані висновки сприяють розширенню розуміння феномену подвійного спуску й показують практичну користь різних підходів у залежності від особливостей даних і вимог до моделі.
Посилання
Golovach, A. B. Mathematical foundations of modeling complex systems. Kyiv: Naukova Dumka, 2018. – p. 286
N.V. Burennikova, O.V. Zelinska, I.M. Ushkalenko, Y.Yu. Burennikov "Optimization methods and models" – Vinnytsia: VNTU, 2019. – 121 p.
Ogirko O. I., Galayko N. V. "Probability theory and mathematical statistics: a textbook". – Lviv: Lviv State University of Internal Affairs, 2017. – 292 p.
Belkin, M., Hsu, D., Ma, S., & Mandal, S. Reconciling Modern Machine Learning and the Bias-Variance Trade-off. PNAS, 2019. – p. 23
Ng, A. Y. Feature Selection, L1 vs. L2 Regularization, and Rotational Invariance. Proceedings of the 21st International Conference on Machine Learning, 2004. - p. 8
Boyd, S., & Vandenberghe, L. Convex Optimization. Cambridge University Press, 2004. - p. 732
Chen, T., & Guestrin, C. XGBoost: A Scalable Tree Boosting System. KDD, 2016. - p. 785–790
Bishop, C. M. Pattern Recognition and Machine Learning. Springer, 2006. - p. 738
##submission.downloads##
-
PDF
Завантажень: 2
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:- Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
- Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
- Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).