Підвищення точності інтерпретації нейромережевих моделей нелінійних динамічних об'єктів

Автор(и)

  • Валентин Крикун Національний університет «Одеська політехніка», Україна

DOI:

https://doi.org/10.32626/2308-5916.2023-24.45-55

Анотація

Робота присвячена проблемі інтерпретації нейронних мереж в задачах моделювання нелінійних динамічних об'єктів. Метою роботи є підвищення точності інтерпретації нейромережевих моделей нелінійних динамічних об’єктів та визначення сфери їх ефективного застосування.

В результаті аналітичного огляду підходів до інтерпретації нейронних мереж: візуалізація, числові оцінки ознак та аналітичні вирази, – визначено сфери ефективного застосування аналітичних інтерпретаційних моделей. Так, підходи до інтерпретації моделей машинно-го навчання на основі візуалізації та числові оцінки ознак не дозволяють збудувати аналітичного виразу залежності «вхід/вихід» об'єкту контролю. Тому, при моделюванні складних об'єктів типу «чорна скриня» з нелінійними і динамічними властивостями для забезпечення підвищених вимог до безпеки результатів моделювання (для переконаності у відсутності прихованої поведінки чи логіки, які впливають на поведінку моделі) доцільно використовувати інтерпретаційні аналітичні моделі у вигляді інтегро-ступеневих рядів на основі багатовимірних вагових функцій.

На прикладі тестового нелінійного динамічного об'єкту збудовано модель у вигляді нейронної мережі з часовими затримками. Для отриманої нейромережевої моделі збудовано інтерпретаційну модель у вигляді інтегро-ступеневих рядів на основі багатовимірних вагових функцій, яка дозволяє забезпечити одночасно підвищення точності моделювання на 10-12% у порівнянні з лінійними інтерпретаційними моделями та зменшення обчислювального навантаження інтерпретації складних об'єктів дослідження у порівнянні з нейронними мережа-ми з часовими затримками.

Завантаження

Дані завантаження ще не доступні.

Посилання

Agresti A. Foundations of linear and generalized linear models. Wiley series in probability and statistics. 2017.

Schoukens J., Ljung L. Nonlinear System Identification: A User-Oriented Road Map. IEEE Control Systems Magazine. 2019. Vol. 39. № 6. P. 28-99.

Md. Rezaul Karim, Md Shajalal, A. Grass. Interpreting Black-box Machine Learning Models for High Dimensional Datasets. arXiv preprint. 2022. arxiv.org/abs/2208.13405.

Cinar A. Overview of existing approaches for the interpretation of machine learning models. Hochschule Esslingen. 2019. P. 1-11.

Lundberg S. A Unified Approach to Interpreting Model Predictions. Conference on Neural Information Processing Systems (NIPS 2017). Long Beach, CA, USA. P. 1-10.

Stegmayer G., Pirola M., Orengo G., Chiotti O.. Towards a Volterra series rep-resentation from a neural network model. WSEAS Transactions on Circuits and Systems. 2004. Archive 1. P. 55-61.

Fomin O., Polozhaenko S., Krykun V., Orlov A., Lys D. Interpretation of Dy-namic Models Based on Neural Networks in the Form of Integral-Power Series / Smart Technologies in Urban Engineering. STUE 2022. Lecture Notes in Net-works and Systems. 2023. Vol 536. P. 258-265.

Liu W., Su Y., Zhu L. Nonlinear Device Modeling Based on Dynamic Neural Networks: A Review of Methods. IEEE 4th International Conference on Elec-tronic Information and Communication Technology (ICEICT). Xi'an, China. 2021. P. 662-665.

##submission.downloads##

Опубліковано

2023-10-26