論文の概要: Interpretable Neural System Dynamics: Combining Deep Learning with System Dynamics Modeling to Support Critical Applications
- arxiv url: http://arxiv.org/abs/2505.14428v1
- Date: Tue, 20 May 2025 14:38:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.366188
- Title: Interpretable Neural System Dynamics: Combining Deep Learning with System Dynamics Modeling to Support Critical Applications
- Title(参考訳): 解釈可能なニューラル・システム・ダイナミクス:Deep Learningとシステム・ダイナミクス・モデリングを組み合わせてクリティカル・アプリケーションを支援する
- Authors: Riccardo D'Elia,
- Abstract要約: この提案は、解釈可能なニューラルネットワークダイナミクスフレームワークを開発することにより、ディープラーニング(DL)とシステムダイナミクス(SD)のギャップを埋めることを目的としている。
提案されたパイプラインの有効性は、EUが出資したAutoMoTIFプロジェクトの実際の応用を通じて検証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of this proposal is to bridge the gap between Deep Learning (DL) and System Dynamics (SD) by developing an interpretable neural system dynamics framework. While DL excels at learning complex models and making accurate predictions, it lacks interpretability and causal reliability. Traditional SD approaches, on the other hand, provide transparency and causal insights but are limited in scalability and require extensive domain knowledge. To overcome these limitations, this project introduces a Neural System Dynamics pipeline, integrating Concept-Based Interpretability, Mechanistic Interpretability, and Causal Machine Learning. This framework combines the predictive power of DL with the interpretability of traditional SD models, resulting in both causal reliability and scalability. The efficacy of the proposed pipeline will be validated through real-world applications of the EU-funded AutoMoTIF project, which is focused on autonomous multimodal transportation systems. The long-term goal is to collect actionable insights that support the integration of explainability and safety in autonomous systems.
- Abstract(参考訳): この提案の目的は、解釈可能なニューラルネットワークダイナミクスフレームワークを開発することにより、ディープラーニング(DL)とシステムダイナミクス(SD)のギャップを埋めることである。
DLは複雑なモデルを学習し、正確な予測を行うのに優れていますが、解釈可能性や因果信頼性に欠けています。
一方、従来のSDアプローチは透明性と因果的な洞察を提供するが、スケーラビリティに制限があり、広範なドメイン知識を必要とする。
これらの制限を克服するため、このプロジェクトでは、概念ベースの解釈可能性、メカニスティック解釈可能性、因果機械学習を統合する、Neural System Dynamicsパイプラインを導入している。
このフレームワークは、DLの予測能力と従来のSDモデルの解釈可能性を組み合わせることで、因果的信頼性とスケーラビリティの両方をもたらす。
提案されたパイプラインの有効性は、EUが出資したAutoMoTIFプロジェクトの実際の応用を通じて検証される。
長期的な目標は、自律システムにおける説明可能性と安全性の統合を支援する実行可能な洞察を集めることである。
関連論文リスト
- Interpretable learning of effective dynamics for multiscale systems [5.754251195342313]
iLED(Interpretable Learning Effective Dynamics)の新たな枠組みを提案する。
iLEDは、最先端のリカレントニューラルネットワークベースのアプローチに匹敵する精度を提供する。
その結果、iLEDフレームワークは正確な予測を生成でき、解釈可能なダイナミクスを得ることができることがわかった。
論文 参考訳(メタデータ) (2023-09-11T20:29:38Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Physics-guided Deep Markov Models for Learning Nonlinear Dynamical
Systems with Uncertainty [6.151348127802708]
我々は物理誘導型Deep Markov Model(PgDMM)という物理誘導型フレームワークを提案する。
提案手法は,動的システムの駆動物理を維持しながら,ディープラーニングの表現力を利用する。
論文 参考訳(メタデータ) (2021-10-16T16:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。