論文の概要: A Self-explainable Model of Long Time Series by Extracting Informative Structured Causal Patterns
- arxiv url: http://arxiv.org/abs/2512.01412v1
- Date: Mon, 01 Dec 2025 08:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.763773
- Title: A Self-explainable Model of Long Time Series by Extracting Informative Structured Causal Patterns
- Title(参考訳): インフォーマティブ構造因果パターン抽出による時系列の自己説明可能モデル
- Authors: Ziqian Wang, Yuxiao Cheng, Jinli Suo,
- Abstract要約: 本稿では,解釈可能な時系列モデリングのための統合フレームワークEXCAPを提案する。
EXCAPは時間とともにスムーズで安定した説明を提供し、因果マスクの摂動に頑健であることを示す。
これらの結果から、EXCAPは、医療や金融といった高額な領域に関係した、時系列の解釈可能なモデリングに対して、原則的かつスケーラブルなアプローチを提供することを示している。
- 参考スコア(独自算出の注目度): 22.54910673667678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability is essential for neural networks that model long time series, yet most existing explainable AI methods only produce point-wise importance scores and fail to capture temporal structures such as trends, cycles, and regime changes. This limitation weakens human interpretability and trust in long-horizon models. To address these issues, we identify four key requirements for interpretable time-series modeling: temporal continuity, pattern-centric explanation, causal disentanglement, and faithfulness to the model's inference process. We propose EXCAP, a unified framework that satisfies all four requirements. EXCAP combines an attention-based segmenter that extracts coherent temporal patterns, a causally structured decoder guided by a pre-trained causal graph, and a latent aggregation mechanism that enforces representation stability. Our theoretical analysis shows that EXCAP provides smooth and stable explanations over time and is robust to perturbations in causal masks. Extensive experiments on classification and forecasting benchmarks demonstrate that EXCAP achieves strong predictive accuracy while generating coherent and causally grounded explanations. These results show that EXCAP offers a principled and scalable approach to interpretable modeling of long time series with relevance to high-stakes domains such as healthcare and finance.
- Abstract(参考訳): 長い時系列をモデル化するニューラルネットワークには説明責任が不可欠だが、既存の説明可能なAIメソッドはポイントワイドな重要なスコアしか生成せず、トレンドやサイクル、レギュレーションの変化といった時間構造を捉えることができない。
この制限は、長い水平モデルにおける人間の解釈可能性と信頼を弱める。
これらの問題に対処するために、時間的連続性、パターン中心の説明、因果不整合、モデルの推論プロセスへの忠実性という、解釈可能な時系列モデリングの4つの重要な要件を特定した。
われわれは,4つの要件をすべて満たした統一フレームワーク EXCAP を提案する。
EXCAPは、コヒーレントな時間パターンを抽出する注意ベースのセグメンタと、事前訓練された因果グラフによってガイドされる因果的に構造化されたデコーダと、表現安定性を強制する潜時集約機構を組み合わせる。
理論的解析により,EXCAPは経時的にスムーズかつ安定な説明を提供し,因果マスクの摂動に頑健であることが示された。
分類と予測のベンチマークに関する大規模な実験は、EXCAPが一貫性と因果的根拠を持つ説明を生成しながら、強い予測精度を達成することを示した。
これらの結果から、EXCAPは、医療や金融といった高額な領域に関係した、時系列の解釈可能なモデリングに対して、原則的かつスケーラブルなアプローチを提供することを示している。
関連論文リスト
- Priors in Time: Missing Inductive Biases for Language Model Interpretability [58.07412640266836]
スパースオートエンコーダは、時間とともに概念の独立を前提としており、定常性を暗示している。
本稿では,時間的帰納バイアスを持つ新たな解釈可能性目標である時間的特徴分析を導入し,その表現を2つの部分に分解する。
私たちの結果は、堅牢な解釈可能性ツールの設計において、データにマッチする帰納的バイアスの必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2025-11-03T18:43:48Z) - A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - On the Consistency and Robustness of Saliency Explanations for Time
Series Classification [4.062872727927056]
時系列ウィンドウを画像として解釈するために、サリエンシマップが適用されている。
本稿では,時系列の特徴と時間的属性に対するサリエンシマップの一貫性とロバスト性について広く分析する。
論文 参考訳(メタデータ) (2023-09-04T09:08:22Z) - MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series
Interpretable Forecasting [13.790498420659636]
時系列予測は、その広範な応用が本質的に困難なため、既存の研究から幅広い関心を集めている。
本稿では,まず,畳み込み操作を用いてマルチスケールの時系列パターンを適応的に分解し,パターン再現の既知に基づいてパターン拡張予測手法を構築し,最終的に畳み込み操作を用いて将来的なパターンを再構築する。
時系列に存在する時間的依存関係を活用することで、MPR-Netは線形時間複雑性を達成するだけでなく、予測プロセスも解釈できる。
論文 参考訳(メタデータ) (2023-07-13T13:16:01Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Mining Causality from Continuous-time Dynamics Models: An Application to
Tsunami Forecasting [22.434845478979604]
本研究では,連続時間モデルから因果構造を抽出する機構を提案する。
我々は,動的モデルの入力層の重み付けによって因果構造を捕捉するモデルを訓練する。
本手法を津波予報という実世界の問題に適用し,正確な因果構造を特徴付けるのが困難である。
論文 参考訳(メタデータ) (2022-10-10T18:53:13Z) - An Empirical Study: Extensive Deep Temporal Point Process [61.14164208094238]
本稿では,非同期イベントシーケンスを時間的プロセスでモデル化することの課題と最近の研究を概観する。
本稿では,多種類のイベント間の関係を生かしたGranger因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:15:00Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。