論文の概要: Implet: A Post-hoc Subsequence Explainer for Time Series Models
- arxiv url: http://arxiv.org/abs/2505.08748v1
- Date: Tue, 13 May 2025 17:01:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.685331
- Title: Implet: A Post-hoc Subsequence Explainer for Time Series Models
- Title(参考訳): Implet: 時系列モデルのためのポストホックサブシークエンス説明器
- Authors: Fanyu Meng, Ziwen Kan, Shahbaz Rezaei, Zhaodan Kong, Xin Chen, Xin Liu,
- Abstract要約: 時系列モデルのための新しいポストホック説明器であるImpletを紹介する。
提案手法は,モデルの予測に大きく寄与する重要な時間セグメントを同定する。
本稿では,コホートに基づく(グループレベルの)説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.890123610098698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability in time series models is crucial for fostering trust, facilitating debugging, and ensuring interpretability in real-world applications. In this work, we introduce Implet, a novel post-hoc explainer that generates accurate and concise subsequence-level explanations for time series models. Our approach identifies critical temporal segments that significantly contribute to the model's predictions, providing enhanced interpretability beyond traditional feature-attribution methods. Based on it, we propose a cohort-based (group-level) explanation framework designed to further improve the conciseness and interpretability of our explanations. We evaluate Implet on several standard time-series classification benchmarks, demonstrating its effectiveness in improving interpretability. The code is available at https://github.com/LbzSteven/implet
- Abstract(参考訳): 時系列モデルの説明可能性は、信頼の促進、デバッグの促進、現実世界のアプリケーションにおける解釈可能性の確保に不可欠である。
本稿では,時系列モデルに対して,高精度かつ簡潔なサブシーケンスレベルの説明を生成する新しいポストホック説明器であるImpletを紹介する。
提案手法は,モデルの予測に大きく寄与する重要な時間セグメントを同定し,従来の特徴帰属法を超えて解釈可能性を高める。
そこで我々は,コホートに基づく(グループレベルの)説明フレームワークを提案し,説明の簡潔さと解釈性をさらに向上させる。
我々は,いくつかの標準時系列分類ベンチマーク上でImpletを評価し,その解釈性向上効果を実証した。
コードはhttps://github.com/LbzSteven/impletで入手できる。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Shapelet-based Model-agnostic Counterfactual Local Explanations for Time
Series Classification [5.866975269666861]
時系列分類のためのモデルに依存しないインスタンスベースのポストホック説明可能性法を提案する。
提案したアルゴリズム、すなわちTime-CFはシェープレットとTimeGANを利用して任意の時系列分類器に反実的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-02T11:57:53Z) - Self-Interpretable Time Series Prediction with Counterfactual
Explanations [4.658166900129066]
解釈可能な時系列予測は、医療や自動運転といった安全上重要な分野において重要である。
既存の手法の多くは、重要なスコアを時系列のセグメントに割り当てることで予測を解釈することに集中している。
我々は,時系列予測のための非現実的かつ実用的な説明を生成する,CounTS(Counfactual Time Series)と呼ばれる自己解釈可能なモデルを開発した。
論文 参考訳(メタデータ) (2023-06-09T16:42:52Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - TSInsight: A local-global attribution framework for interpretability in
time-series data [5.174367472975529]
本稿では,分類器からの勾配と再構成ペナルティに基づいて,その出力に疎性誘導ノルムを付与した自動エンコーダを提案する。
TSInsightは、分類器による予測に重要な機能を保存することを学び、無関係な機能を抑制する。
他のほとんどの属性フレームワークとは対照的に、TSInsightはインスタンスベースの説明とモデルベースの説明の両方を生成することができる。
論文 参考訳(メタデータ) (2020-04-06T19:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。