論文の概要: Introducing Interval Neural Networks for Uncertainty-Aware System Identification
- arxiv url: http://arxiv.org/abs/2504.18845v1
- Date: Sat, 26 Apr 2025 08:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.014182
- Title: Introducing Interval Neural Networks for Uncertainty-Aware System Identification
- Title(参考訳): 不確実性認識システム同定のためのインターバルニューラルネットワークの導入
- Authors: Mehmet Ali Ferah, Tufan Kumbasar,
- Abstract要約: 本稿では,システム同定(SysID)タスクにおける不確実性定量化(UQ)を実現するために,INN(Interval Neural Networks)の構築と学習を行うフレームワークを提案する。
INNは、事前訓練されたニューラルネットワークの学習可能なパラメータ(LP)を確率論的仮定に頼ることなく、インターバル値のLPに変換することによって導出される。
我々は,Long Short-Term Memory (LSTM) とNeural Ordinary Differential Equations (Neural ODEs) を Interval LSTM (ILSTM) と Interval NODE (INODE) アーキテクチャに拡張し,SysID に応用するための数学的基盤を提供する。
- 参考スコア(独自算出の注目度): 2.8391355909797644
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: System Identification (SysID) is crucial for modeling and understanding dynamical systems using experimental data. While traditional SysID methods emphasize linear models, their inability to fully capture nonlinear dynamics has driven the adoption of Deep Learning (DL) as a more powerful alternative. However, the lack of uncertainty quantification (UQ) in DL-based models poses challenges for reliability and safety, highlighting the necessity of incorporating UQ. This paper introduces a systematic framework for constructing and learning Interval Neural Networks (INNs) to perform UQ in SysID tasks. INNs are derived by transforming the learnable parameters (LPs) of pre-trained neural networks into interval-valued LPs without relying on probabilistic assumptions. By employing interval arithmetic throughout the network, INNs can generate Prediction Intervals (PIs) that capture target coverage effectively. We extend Long Short-Term Memory (LSTM) and Neural Ordinary Differential Equations (Neural ODEs) into Interval LSTM (ILSTM) and Interval NODE (INODE) architectures, providing the mathematical foundations for their application in SysID. To train INNs, we propose a DL framework that integrates a UQ loss function and parameterization tricks to handle constraints arising from interval LPs. We introduce novel concept "elasticity" for underlying uncertainty causes and validate ILSTM and INODE in SysID experiments, demonstrating their effectiveness.
- Abstract(参考訳): システム同定(SysID)は実験データを用いて力学系をモデル化・理解するために重要である。
従来のSysID手法は線形モデルを重視しているが、非線形力学を完全に捉えることができないため、より強力な代替手段としてDeep Learning (DL)を採用した。
しかし、DLモデルにおける不確実性定量化(UQ)の欠如は、信頼性と安全性に課題をもたらし、UQを導入する必要性を強調している。
本稿では、SysIDタスクでUQを実行するために、INN(Interval Neural Networks)の構築と学習のための体系的なフレームワークを提案する。
INNは、事前訓練されたニューラルネットワークの学習可能なパラメータ(LP)を確率論的仮定に頼ることなく、インターバル値のLPに変換することによって導出される。
ネットワーク全体のインターバル演算を利用することで、INNはターゲットカバレッジを効果的にキャプチャする予測インターバル(PI)を生成することができる。
我々は,Long Short-Term Memory (LSTM) とNeural Ordinary Differential Equations (Neural ODEs) を Interval LSTM (ILSTM) と Interval NODE (INODE) アーキテクチャに拡張し,SysID に応用するための数学的基盤を提供する。
In order to training INNs, we propose a DL framework that integrates a UQ loss function and parameterization trick to handle constraints from interval LPs。
基礎となる不確実性の原因に対する新しい概念「弾性」を導入し,SysID実験におけるILSTMとINODEの有効性を検証した。
関連論文リスト
- Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - Brain-Inspired Spiking Neural Network for Online Unsupervised Time
Series Prediction [13.521272923545409]
連続学習に基づく非教師付きリカレントスパイキングニューラルネットワークモデル(CLURSNN)を提案する。
CLURSNNは、ランダム遅延埋め込み(Random Delay Embedding)を使用して基盤となる動的システムを再構築することで、オンライン予測を行う。
提案手法は,進化するロレンツ63力学系を予測する際に,最先端のDNNモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-10T16:18:37Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。