論文の概要: Data Representing Ground-Truth Explanations to Evaluate XAI Methods
- arxiv url: http://arxiv.org/abs/2011.09892v1
- Date: Wed, 18 Nov 2020 16:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:27:13.549945
- Title: Data Representing Ground-Truth Explanations to Evaluate XAI Methods
- Title(参考訳): XAI手法評価のための地上構造記述データ
- Authors: Shideh Shams Amiri, Rosina O. Weber, Prateek Goel, Owen Brooks, Archer
Gandley, Brian Kitchell, Aaron Zehm
- Abstract要約: 現在、説明可能な人工知能(XAI)手法は、主に解釈可能な機械学習(IML)研究に由来するアプローチで評価されている。
本稿では,XAI手法の精度を評価するために用いられる正準方程式を用いた説明法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) methods are currently evaluated
with approaches mostly originated in interpretable machine learning (IML)
research that focus on understanding models such as comparison against existing
attribution approaches, sensitivity analyses, gold set of features, axioms, or
through demonstration of images. There are problems with these methods such as
that they do not indicate where current XAI approaches fail to guide
investigations towards consistent progress of the field. They do not measure
accuracy in support of accountable decisions, and it is practically impossible
to determine whether one XAI method is better than the other or what the
weaknesses of existing models are, leaving researchers without guidance on
which research questions will advance the field. Other fields usually utilize
ground-truth data and create benchmarks. Data representing ground-truth
explanations is not typically used in XAI or IML. One reason is that
explanations are subjective, in the sense that an explanation that satisfies
one user may not satisfy another. To overcome these problems, we propose to
represent explanations with canonical equations that can be used to evaluate
the accuracy of XAI methods. The contributions of this paper include a
methodology to create synthetic data representing ground-truth explanations,
three data sets, an evaluation of LIME using these data sets, and a preliminary
analysis of the challenges and potential benefits in using these data to
evaluate existing XAI approaches. Evaluation methods based on human-centric
studies are outside the scope of this paper.
- Abstract(参考訳): 説明可能な人工知能(xai)の手法は、既存の帰属的アプローチ、感度分析、特徴の金のセット、公理、画像のデモンストレーションといったモデルを理解することに焦点を当てた、解釈可能な機械学習(iml)研究に端を発するアプローチで現在評価されている。
これらの手法には、現在のXAIアプローチが、現場の一貫した進歩に向けて調査を導くことができないことを示すような問題がある。
説明責任決定を裏付ける精度は測定されず、一方のXAI法が他方よりも優れているか、既存のモデルの弱点があるのかを判断することは事実上不可能であり、どの研究質問がどの分野に進むかのガイダンスは残っていない。
その他の分野は、通常、地上データを使用し、ベンチマークを作成する。
XAI や IML では、地上真実の説明を表すデータは一般的には使われない。
理由の一つは、説明が主観的であり、あるユーザーを満足させる説明が他のユーザーを満足させないという意味である。
これらの問題を克服するために,XAI手法の精度を評価するために用いられる正準方程式を用いた説明法を提案する。
本論文のコントリビューションには,地中構造説明を表す合成データ作成手法,3つのデータセット,これらのデータセットを用いたLIMEの評価,および既存のXAIアプローチを評価する上での課題と潜在的メリットの予備的分析が含まれる。
人中心研究に基づく評価手法は,本論文の範囲外である。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - What's meant by explainable model: A Scoping Review [0.38252451346419336]
本稿では, ポストホックなXAI手法を取り入れたモデルが, 説明可能なモデルとして特徴付けるのに十分であるという前提のもと, 著者らによって「説明可能なモデル」という用語が採用されているかを検討する。
説明可能なモデルとしてアプローチを引用するアプリケーション論文の81%は、使用したXAI手法についていかなる評価も行っていないことがわかった。
論文 参考訳(メタデータ) (2023-07-18T22:55:04Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。