論文の概要: Why do explanations fail? A typology and discussion on failures in XAI
- arxiv url: http://arxiv.org/abs/2405.13474v1
- Date: Wed, 22 May 2024 09:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 00:45:22.985899
- Title: Why do explanations fail? A typology and discussion on failures in XAI
- Title(参考訳): なぜ説明が失敗するのか : タイポロジーとXAIの失敗に関する議論
- Authors: Clara Bove, Thibault Laugel, Marie-Jeanne Lesot, Charles Tijus, Marcin Detyniecki,
- Abstract要約: 結果として生じる害は、XAIにおける複数の障害の複雑な重複から生じると我々は主張する。
本稿では,説明失敗の複雑さを明らかにするためのタイプ的枠組みを提案する。
- 参考スコア(独自算出の注目度): 4.215267357325547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning (ML) models achieve unprecedented levels of performance, the XAI domain aims at making these models understandable by presenting end-users with intelligible explanations. Yet, some existing XAI approaches fail to meet expectations: several issues have been reported in the literature, generally pointing out either technical limitations or misinterpretations by users. In this paper, we argue that the resulting harms arise from a complex overlap of multiple failures in XAI, which existing ad-hoc studies fail to capture. This work therefore advocates for a holistic perspective, presenting a systematic investigation of limitations of current XAI methods and their impact on the interpretation of explanations. By distinguishing between system-specific and user-specific failures, we propose a typological framework that helps revealing the nuanced complexities of explanation failures. Leveraging this typology, we also discuss some research directions to help AI practitioners better understand the limitations of XAI systems and enhance the quality of ML explanations.
- Abstract(参考訳): 機械学習(ML)モデルは、前例のないレベルのパフォーマンスを達成するため、XAIドメインは、エンドユーザーに対して理解不能な説明をすることで、これらのモデルを理解可能にすることを目指している。
しかし、いくつかの既存のXAIアプローチは期待を満たさない。いくつかの問題が文献で報告されており、一般的に、技術的な制限またはユーザによる誤解を指摘している。
本稿では,既存のアドホックな研究では達成できないXAIの複数の障害が複雑に重複していることから生じる害について論じる。
この研究は、現在のXAI手法の限界とその説明解釈への影響に関する体系的な研究を提示し、全体論的な視点を提唱する。
システム固有の障害とユーザ固有の障害を区別することにより、説明障害の複雑さの曖昧さを明らかにするためのタイプトロジーフレームワークを提案する。
この類型学を活用することで、AI実践者がXAIシステムの限界をよりよく理解し、MLの説明の質を高めるための研究の方向性についても議論する。
関連論文リスト
- More Questions than Answers? Lessons from Integrating Explainable AI into a Cyber-AI Tool [1.5711133309434766]
ソースコード分類におけるXAIの使用に関する予備的事例研究について述べる。
我々は、AIの専門知識がほとんどない人々によって解釈されると、最先端の正当性説明技法の出力が翻訳で失われることを発見した。
実用的で効果的なXAIにおける非適応的なギャップを概説し、次に、LLM(Large Language Models)のような新興技術が、これらの既存の障害を緩和する方法について触れます。
論文 参考訳(メタデータ) (2024-08-08T20:09:31Z) - Is Task-Agnostic Explainable AI a Myth? [0.0]
我々の研究は、現代の説明可能なAI(XAI)の課題を統一するための枠組みとして機能する。
我々は、XAI手法が機械学習モデルに補助的かつ潜在的に有用な出力を提供する一方で、研究者と意思決定者は、概念的および技術的な制限に留意すべきであることを示した。
本稿では,画像,テキスト,グラフデータにまたがる3つのXAI研究経路について検討する。
論文 参考訳(メタデータ) (2023-07-13T07:48:04Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。