Підвищення точності інтерпретації нейромережевих моделей нелінійних динамічних об'єктів

Автор(и)

  • Валентин Крикун Національний університет «Одеська політехніка», Ukraine

DOI:

https://doi.org/10.32626/2308-5916.2023-24.45-55

Анотація

Робота присвячена проблемі інтерпретації нейронних мереж в задачах моделювання нелінійних динамічних об'єктів. Метою роботи є підвищення точності інтерпретації нейромережевих моделей нелінійних динамічних об’єктів та визначення сфери їх ефективного застосування.

В результаті аналітичного огляду підходів до інтерпретації нейронних мереж: візуалізація, числові оцінки ознак та аналітичні вирази, – визначено сфери ефективного застосування аналітичних інтерпретаційних моделей. Так, підходи до інтерпретації моделей машинно-го навчання на основі візуалізації та числові оцінки ознак не дозволяють збудувати аналітичного виразу залежності «вхід/вихід» об'єкту контролю. Тому, при моделюванні складних об'єктів типу «чорна скриня» з нелінійними і динамічними властивостями для забезпечення підвищених вимог до безпеки результатів моделювання (для переконаності у відсутності прихованої поведінки чи логіки, які впливають на поведінку моделі) доцільно використовувати інтерпретаційні аналітичні моделі у вигляді інтегро-ступеневих рядів на основі багатовимірних вагових функцій.

На прикладі тестового нелінійного динамічного об'єкту збудовано модель у вигляді нейронної мережі з часовими затримками. Для отриманої нейромережевої моделі збудовано інтерпретаційну модель у вигляді інтегро-ступеневих рядів на основі багатовимірних вагових функцій, яка дозволяє забезпечити одночасно підвищення точності моделювання на 10-12% у порівнянні з лінійними інтерпретаційними моделями та зменшення обчислювального навантаження інтерпретації складних об'єктів дослідження у порівнянні з нейронними мережа-ми з часовими затримками.

Посилання

Agresti A. Foundations of linear and generalized linear models. Wiley series in probability and statistics. 2017.

Schoukens J., Ljung L. Nonlinear System Identification: A User-Oriented Road Map. IEEE Control Systems Magazine. 2019. Vol. 39. № 6. P. 28-99.

Md. Rezaul Karim, Md Shajalal, A. Grass. Interpreting Black-box Machine Learning Models for High Dimensional Datasets. arXiv preprint. 2022. arxiv.org/abs/2208.13405.

Cinar A. Overview of existing approaches for the interpretation of machine learning models. Hochschule Esslingen. 2019. P. 1-11.

Lundberg S. A Unified Approach to Interpreting Model Predictions. Conference on Neural Information Processing Systems (NIPS 2017). Long Beach, CA, USA. P. 1-10.

Stegmayer G., Pirola M., Orengo G., Chiotti O.. Towards a Volterra series rep-resentation from a neural network model. WSEAS Transactions on Circuits and Systems. 2004. Archive 1. P. 55-61.

Fomin O., Polozhaenko S., Krykun V., Orlov A., Lys D. Interpretation of Dy-namic Models Based on Neural Networks in the Form of Integral-Power Series / Smart Technologies in Urban Engineering. STUE 2022. Lecture Notes in Net-works and Systems. 2023. Vol 536. P. 258-265.

Liu W., Su Y., Zhu L. Nonlinear Device Modeling Based on Dynamic Neural Networks: A Review of Methods. IEEE 4th International Conference on Elec-tronic Information and Communication Technology (ICEICT). Xi'an, China. 2021. P. 662-665.

##submission.downloads##

Опубліковано

2023-10-26