論文の概要: Implet: A Post-hoc Subsequence Explainer for Time Series Models
- arxiv url: http://arxiv.org/abs/2505.08748v1
- Date: Tue, 13 May 2025 17:01:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.685331
- Title: Implet: A Post-hoc Subsequence Explainer for Time Series Models
- Title(参考訳): Implet: 時系列モデルのためのポストホックサブシークエンス説明器
- Authors: Fanyu Meng, Ziwen Kan, Shahbaz Rezaei, Zhaodan Kong, Xin Chen, Xin Liu,
- Abstract要約: 時系列モデルのための新しいポストホック説明器であるImpletを紹介する。
提案手法は,モデルの予測に大きく寄与する重要な時間セグメントを同定する。
本稿では,コホートに基づく(グループレベルの)説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.890123610098698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability in time series models is crucial for fostering trust, facilitating debugging, and ensuring interpretability in real-world applications. In this work, we introduce Implet, a novel post-hoc explainer that generates accurate and concise subsequence-level explanations for time series models. Our approach identifies critical temporal segments that significantly contribute to the model's predictions, providing enhanced interpretability beyond traditional feature-attribution methods. Based on it, we propose a cohort-based (group-level) explanation framework designed to further improve the conciseness and interpretability of our explanations. We evaluate Implet on several standard time-series classification benchmarks, demonstrating its effectiveness in improving interpretability. The code is available at https://github.com/LbzSteven/implet
- Abstract(参考訳): 時系列モデルの説明可能性は、信頼の促進、デバッグの促進、現実世界のアプリケーションにおける解釈可能性の確保に不可欠である。
本稿では,時系列モデルに対して,高精度かつ簡潔なサブシーケンスレベルの説明を生成する新しいポストホック説明器であるImpletを紹介する。
提案手法は,モデルの予測に大きく寄与する重要な時間セグメントを同定し,従来の特徴帰属法を超えて解釈可能性を高める。
そこで我々は,コホートに基づく(グループレベルの)説明フレームワークを提案し,説明の簡潔さと解釈性をさらに向上させる。
我々は,いくつかの標準時系列分類ベンチマーク上でImpletを評価し,その解釈性向上効果を実証した。
コードはhttps://github.com/LbzSteven/impletで入手できる。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Shapelet-based Model-agnostic Counterfactual Local Explanations for Time
Series Classification [5.866975269666861]
時系列分類のためのモデルに依存しないインスタンスベースのポストホック説明可能性法を提案する。
提案したアルゴリズム、すなわちTime-CFはシェープレットとTimeGANを利用して任意の時系列分類器に反実的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-02T11:57:53Z) - On the Consistency and Robustness of Saliency Explanations for Time
Series Classification [4.062872727927056]
時系列ウィンドウを画像として解釈するために、サリエンシマップが適用されている。
本稿では,時系列の特徴と時間的属性に対するサリエンシマップの一貫性とロバスト性について広く分析する。
論文 参考訳(メタデータ) (2023-09-04T09:08:22Z) - Self-Interpretable Time Series Prediction with Counterfactual
Explanations [4.658166900129066]
解釈可能な時系列予測は、医療や自動運転といった安全上重要な分野において重要である。
既存の手法の多くは、重要なスコアを時系列のセグメントに割り当てることで予測を解釈することに集中している。
我々は,時系列予測のための非現実的かつ実用的な説明を生成する,CounTS(Counfactual Time Series)と呼ばれる自己解釈可能なモデルを開発した。
論文 参考訳(メタデータ) (2023-06-09T16:42:52Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Bayesian Attention Modules [65.52970388117923]
実装や最適化が容易な,スケーラブルな注目バージョンを提案する。
本実験は,提案手法が対応するベースラインに対して一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-20T20:30:55Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - TSInsight: A local-global attribution framework for interpretability in
time-series data [5.174367472975529]
本稿では,分類器からの勾配と再構成ペナルティに基づいて,その出力に疎性誘導ノルムを付与した自動エンコーダを提案する。
TSInsightは、分類器による予測に重要な機能を保存することを学び、無関係な機能を抑制する。
他のほとんどの属性フレームワークとは対照的に、TSInsightはインスタンスベースの説明とモデルベースの説明の両方を生成することができる。
論文 参考訳(メタデータ) (2020-04-06T19:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。