論文の概要: C-SHAP for time series: An approach to high-level temporal explanations
- arxiv url: http://arxiv.org/abs/2504.11159v1
- Date: Tue, 15 Apr 2025 13:06:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:10:25.119896
- Title: C-SHAP for time series: An approach to high-level temporal explanations
- Title(参考訳): 時系列のC-SHAP:高次時間的説明へのアプローチ
- Authors: Annemarie Jutte, Faizan Ahmed, Jeroen Linssen, Maurice van Keulen,
- Abstract要約: 説明可能なAI(XAI)は、モデル推論を説明することによって、AIソリューションの信頼性を高めることを目的としている。
時系列では、多くのXAIメソッドがポイントまたはシーケンスベースの属性マップを提供する。
本稿では,これらの高レベルなパターンから説明を提供する概念に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License:
- Abstract: Time series are ubiquitous in domains such as energy forecasting, healthcare, and industry. Using AI systems, some tasks within these domains can be efficiently handled. Explainable AI (XAI) aims to increase the reliability of AI solutions by explaining model reasoning. For time series, many XAI methods provide point- or sequence-based attribution maps. These methods explain model reasoning in terms of low-level patterns. However, they do not capture high-level patterns that may also influence model reasoning. We propose a concept-based method to provide explanations in terms of these high-level patterns. In this paper, we present C-SHAP for time series, an approach which determines the contribution of concepts to a model outcome. We provide a general definition of C-SHAP and present an example implementation using time series decomposition. Additionally, we demonstrate the effectiveness of the methodology through a use case from the energy domain.
- Abstract(参考訳): 時系列はエネルギー予測、医療、産業などの領域で広く使われている。
AIシステムを使用することで、これらの領域内のタスクを効率的に処理することができる。
説明可能なAI(XAI)は、モデル推論を説明することによって、AIソリューションの信頼性を高めることを目的としている。
時系列では、多くのXAIメソッドがポイントまたはシーケンスベースの属性マップを提供する。
これらの手法は、低レベルパターンの観点からモデル推論を説明する。
しかし、モデル推論にも影響を及ぼす可能性のある高レベルのパターンを捉えていない。
本稿では,これらの高レベルなパターンから説明を提供する概念に基づく手法を提案する。
本稿では,モデル結果に対する概念の寄与を決定する手法である時系列のC-SHAPを提案する。
C-SHAPの一般的な定義を提供し、時系列分解を用いた実装例を示す。
さらに、エネルギー領域のユースケースを通して方法論の有効性を実証する。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - A Comparative Study on Reasoning Patterns of OpenAI's o1 Model [69.08287909042421]
OpenAIのo1モデルは、ほとんどのデータセットで最高のパフォーマンスを実現しています。
また、いくつかの推論ベンチマークについて詳細な分析を行う。
論文 参考訳(メタデータ) (2024-10-17T15:09:03Z) - Implicit Reasoning in Deep Time Series Forecasting [16.750280337155647]
この研究は、ディープ時系列予測モデルの推論能力を評価するための最初の一歩を踏み出した。
系統的に編成されたアウト・オブ・ディストリビューションシナリオにおいて,ある線形なパッチベーストランスフォーマーモデルが効果的に一般化できることが判明した。
論文 参考訳(メタデータ) (2024-09-17T02:11:19Z) - Shapelet-based Model-agnostic Counterfactual Local Explanations for Time
Series Classification [5.866975269666861]
時系列分類のためのモデルに依存しないインスタンスベースのポストホック説明可能性法を提案する。
提案したアルゴリズム、すなわちTime-CFはシェープレットとTimeGANを利用して任意の時系列分類器に反実的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-02T11:57:53Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Explainable Artificial Intelligence (XAI) on TimeSeries Data: A Survey [7.211834628554803]
時系列に適用される既存の説明可能なAI(XAI)手法の概要を紹介します。
また、これらの説明方法の影響を反映し、AIシステムに信頼と信頼を提供します。
論文 参考訳(メタデータ) (2021-04-02T09:14:00Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z) - timeXplain -- A Framework for Explaining the Predictions of Time Series
Classifiers [3.6433472230928428]
本稿では,時間領域,周波数領域,時系列統計に関する新しいドメインマッピングを提案する。
我々は彼らの説明力と限界を分析する。
我々は、TimeXplainといくつかのモデル固有の説明手法を実験的に比較するために、新しい評価基準を用いる。
論文 参考訳(メタデータ) (2020-07-15T10:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。