論文の概要: A Deep Dive into Perturbations as Evaluation Technique for Time Series
XAI
- arxiv url: http://arxiv.org/abs/2307.05104v1
- Date: Tue, 11 Jul 2023 08:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:54:07.480268
- Title: A Deep Dive into Perturbations as Evaluation Technique for Time Series
XAI
- Title(参考訳): 時系列XAIの評価手法としての摂動の深化
- Authors: Udo Schlegel, Daniel A. Keim
- Abstract要約: 時系列データのためのXAIは、金融、医療、気候科学においてますます重要になっている。
XAI技術による属性などの説明の質を評価することは依然として困難である。
本稿では,時系列モデルから抽出した属性を評価するために摂動を用いた詳細な解析を行う。
- 参考スコア(独自算出の注目度): 13.269396832189754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) has gained significant attention
recently as the demand for transparency and interpretability of machine
learning models has increased. In particular, XAI for time series data has
become increasingly important in finance, healthcare, and climate science.
However, evaluating the quality of explanations, such as attributions provided
by XAI techniques, remains challenging. This paper provides an in-depth
analysis of using perturbations to evaluate attributions extracted from time
series models. A perturbation analysis involves systematically modifying the
input data and evaluating the impact on the attributions generated by the XAI
method. We apply this approach to several state-of-the-art XAI techniques and
evaluate their performance on three time series classification datasets. Our
results demonstrate that the perturbation analysis approach can effectively
evaluate the quality of attributions and provide insights into the strengths
and limitations of XAI techniques. Such an approach can guide the selection of
XAI methods for time series data, e.g., focusing on return time rather than
precision, and facilitate the development of more reliable and interpretable
machine learning models for time series analysis.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習モデルの透明性と解釈可能性の需要が増大するにつれて、近年大きな注目を集めている。
特に、時系列データのためのXAIは、金融、医療、気候科学においてますます重要になっている。
しかし、XAI技術による属性などの説明の質を評価することは依然として困難である。
本稿では,時系列モデルから抽出した帰属度を評価するために摂動を用いた詳細な解析を行う。
摂動解析では、入力データを体系的に修正し、XAI法で生成された属性への影響を評価する。
このアプローチを最先端のxai技術に適用し,3つの時系列分類データセット上での性能評価を行う。
以上の結果から,摂動解析手法は属性の質を効果的に評価し,XAI手法の強度と限界に関する洞察を与えることができることがわかった。
このようなアプローチは、例えば、精度よりも返却時間に焦点を当てた時系列データのためのXAIメソッドの選択をガイドし、時系列分析のためのより信頼性が高く解釈可能な機械学習モデルの開発を促進する。
関連論文リスト
- Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - EXACT: Towards a platform for empirically benchmarking Machine Learning model explanation methods [1.6383837447674294]
本稿では、初期ベンチマークプラットフォームにおいて、様々なベンチマークデータセットと新しいパフォーマンス指標をまとめる。
我々のデータセットには、クラス条件の特徴に対する真実の説明が組み込まれています。
このプラットフォームは、それらが生成する説明の品質において、ポストホックなXAIメソッドのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-05-20T14:16:06Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - XAI Methods for Neural Time Series Classification: A Brief Review [0.0]
時系列分類タスクのための深層学習ブラックボックスの開き方に着目し,eXplainable AI(XAI)手法の現状について検討する。
我々の貢献は、将来的な仕事の方向性を導き、時系列データに基づく深層学習のためのXAIを前進させることも目的としている。
論文 参考訳(メタデータ) (2021-08-18T07:26:19Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks [18.70973390984415]
機械学習のブラックボックスモデルの決定的説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
時系列画像やテキストデータ用に開発されたニューラルネットワークのアトリビューション手法を適用するための実証的研究とベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-08T10:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。