論文の概要: Motif-guided Time Series Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2211.04411v3
- Date: Thu, 1 Feb 2024 21:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:52:56.770057
- Title: Motif-guided Time Series Counterfactual Explanations
- Title(参考訳): モチーフ誘導型時系列対実説明
- Authors: Peiyu Li, Soukaina Filali Boubrahimi, Shah Muhammad Hamdi
- Abstract要約: 本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
- 参考スコア(独自算出の注目度): 1.1510009152620664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rising need of interpretable machine learning methods, there is a
necessity for a rise in human effort to provide diverse explanations of the
influencing factors of the model decisions. To improve the trust and
transparency of AI-based systems, the EXplainable Artificial Intelligence (XAI)
field has emerged. The XAI paradigm is bifurcated into two main categories:
feature attribution and counterfactual explanation methods. While feature
attribution methods are based on explaining the reason behind a model decision,
counterfactual explanation methods discover the smallest input changes that
will result in a different decision. In this paper, we aim at building trust
and transparency in time series models by using motifs to generate
counterfactual explanations. We propose Motif-Guided Counterfactual Explanation
(MG-CF), a novel model that generates intuitive post-hoc counterfactual
explanations that make full use of important motifs to provide interpretive
information in decision-making processes. To the best of our knowledge, this is
the first effort that leverages motifs to guide the counterfactual explanation
generation. We validated our model using five real-world time-series datasets
from the UCR repository. Our experimental results show the superiority of MG-CF
in balancing all the desirable counterfactual explanations properties in
comparison with other competing state-of-the-art baselines.
- Abstract(参考訳): 解釈可能な機械学習手法の必要性が高まる中、モデル決定に影響を及ぼす要因の多様な説明を提供するために、人間の努力が高まる必要がある。
AIベースのシステムの信頼性と透明性を改善するために、説明可能な人工知能(XAI)分野が出現した。
XAIパラダイムは2つの主要なカテゴリに分かれている。
特徴属性法は、モデル決定の背後にある理由を説明することに基づくが、反実的説明法は、異なる決定をもたらす最小の入力変化を発見する。
本稿では,時系列モデルにおける信頼と透明性の構築を目的として,モチーフを用いて反事実的説明を生成する。
本稿では,意思決定プロセスにおける解釈情報の提供に重要なモチーフをフル活用した,直感的な反事実説明を生成する新しいモデルMG-CFを提案する。
我々の知る限りでは、これは反実的な説明生成を導くモチーフを活用する最初の試みである。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
実験結果から,mg-cfは,すべての望ましい反事実的説明特性と,他の競合する最先端のベースラインとのバランスにおいて優れていることが示された。
関連論文リスト
- Info-CELS: Informative Saliency Map Guided Counterfactual Explanation [1.25828876338076]
新たな対実的説明モデルCELSが導入された。
CELSは、インスタンスの興味を引いたサリエンシマップを学習し、学習したサリエンシマップによってガイドされた反ファクトな説明を生成する。
CELSを基盤とした拡張されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-27T18:12:02Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System [3.754171077237216]
本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
一般的な状況に言語説明を生成する暗黙の論理を拡張するための学習モデルを提案する。
その結果,両モデルが生成した言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
論文 参考訳(メタデータ) (2020-08-04T13:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。