論文の概要: Counterfactual Explanations for Misclassified Images: How Human and
Machine Explanations Differ
- arxiv url: http://arxiv.org/abs/2212.08733v1
- Date: Fri, 16 Dec 2022 22:05:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 14:34:27.467498
- Title: Counterfactual Explanations for Misclassified Images: How Human and
Machine Explanations Differ
- Title(参考訳): 誤分類画像の非現実的説明:人間と機械の説明がいかに異なるか
- Authors: Eoin Delaney, Arjun Pakrashi, Derek Greene, Mark T. Keane
- Abstract要約: ブラックボックスのディープラーニングシステムの予測を解明する、eXplainable AI(XAI)問題に対する一般的なソリューションとして、カウンターファクトの説明が登場した。
100以上の対策方法が存在し、人々が好むものに似た、もっともらしい説明を生成すると主張しているが、実際にユーザでテストされているものはほとんどない。
ここでは, 誤分類画像に対する人間生成の反実的説明を根底から収集する新たな手法を用いて, この問題に対処する。
- 参考スコア(独自算出の注目度): 11.508304497344637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations have emerged as a popular solution for the
eXplainable AI (XAI) problem of elucidating the predictions of black-box
deep-learning systems due to their psychological validity, flexibility across
problem domains and proposed legal compliance. While over 100 counterfactual
methods exist, claiming to generate plausible explanations akin to those
preferred by people, few have actually been tested on users ($\sim7\%$). So,
the psychological validity of these counterfactual algorithms for effective XAI
for image data is not established. This issue is addressed here using a novel
methodology that (i) gathers ground truth human-generated counterfactual
explanations for misclassified images, in two user studies and, then, (ii)
compares these human-generated ground-truth explanations to
computationally-generated explanations for the same misclassifications. Results
indicate that humans do not "minimally edit" images when generating
counterfactual explanations. Instead, they make larger, "meaningful" edits that
better approximate prototypes in the counterfactual class.
- Abstract(参考訳): eXplainable AI(XAI)問題に対する一般的な解決策として、心理的妥当性、問題領域間の柔軟性、法的コンプライアンスの提案などにより、ブラックボックスのディープラーニングシステムの予測が解明されている。
100以上の反事実的手法が存在し、人々が好むものと同様の正当な説明を生み出していると主張する一方で、実際にユーザ上でテストされているものはほとんどない($\sim7\%$)。
そのため、画像データに有効なXAIに対するこれらの反現実的アルゴリズムの心理的妥当性は確立されていない。
この問題は、新しい方法論を用いて解決される。
(i)誤分類画像に対して人間生成の反事実的説明を2つのユーザ研究で収集する。
(ii) 同一の誤分類を計算的に生成した説明と比較する。
結果は、人間は反現実的な説明を生成する際に、画像を「最小限に編集」しないことを示している。
代わりに、より大きく「意味のある」編集を行い、カウンターファクトのクラスのプロトタイプをよりよく近似させる。
関連論文リスト
- Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Advancing Post Hoc Case Based Explanation with Feature Highlighting [0.8287206589886881]
テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
論文 参考訳(メタデータ) (2023-11-06T16:34:48Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。