論文の概要: On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning
- arxiv url: http://arxiv.org/abs/2009.06399v1
- Date: Thu, 10 Sep 2020 14:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 02:53:27.735153
- Title: On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning
- Title(参考訳): 深層学習における反事実的・半事実的説明の生成について
- Authors: Eoin M. Kenny and Mark T. Keane
- Abstract要約: PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
- 参考スコア(独自算出の注目度): 15.965337956587373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing concern that the recent progress made in AI, especially
regarding the predictive competence of deep learning models, will be undermined
by a failure to properly explain their operation and outputs. In response to
this disquiet counterfactual explanations have become massively popular in
eXplainable AI (XAI) due to their proposed computational psychological, and
legal benefits. In contrast however, semifactuals, which are a similar way
humans commonly explain their reasoning, have surprisingly received no
attention. Most counterfactual methods address tabular rather than image data,
partly due to the nondiscrete nature of the latter making good counterfactuals
difficult to define. Additionally generating plausible looking explanations
which lie on the data manifold is another issue which hampers progress. This
paper advances a novel method for generating plausible counterfactuals (and
semifactuals) for black box CNN classifiers doing computer vision. The present
method, called PlausIble Exceptionality-based Contrastive Explanations (PIECE),
modifies all exceptional features in a test image to be normal from the
perspective of the counterfactual class (hence concretely defining a
counterfactual). Two controlled experiments compare this method to others in
the literature, showing that PIECE not only generates the most plausible
counterfactuals on several measures, but also the best semifactuals.
- Abstract(参考訳): ディープラーニングモデルの予測能力に関して、AIの最近の進歩が、その操作と出力を適切に説明できないために損なわれるのではないか、という懸念が高まっている。
この不適切な反事実的説明に対する反応は、提案された計算心理学的、法的利益により、eXplainable AI(XAI)で非常に人気がある。
対照的に、人間が理性を説明するのによく似ている半事実は、驚くほど注目されていない。
多くの反事実法は画像データではなく表形式を扱うが、その原因の一部は後者の非明な性質のため、良い反事実を定義するのが困難である。
さらに、データ多様体にあるもっともらしい説明を生成することが、ハマーが進行する別の問題である。
本稿では,コンピュータビジョンを行うブラックボックスCNN分類器に対して,有効な対策(および半現実)を生成する新しい手法を提案する。
本手法はPlausIble Exceptionality-based Contrastive Explanations (PIECE) と呼ばれ, 対実的クラス(具体的には対実的クラスを定義する)の観点から, テスト画像におけるすべての例外的特徴を正常に修正する。
2つの制御された実験は、この手法を文献上の他の方法と比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
関連論文リスト
- Explaining Predictive Uncertainty by Exposing Second-Order Effects [13.83164409095901]
本稿では,2次効果に基づく予測不確実性を説明する新しい手法を提案する。
提案手法は一般に適用可能であり,一般的な帰属手法を強力な二次不確実性説明器に変換することができる。
論文 参考訳(メタデータ) (2024-01-30T21:02:21Z) - Deep Backtracking Counterfactuals for Causally Compliant Explanations [57.94160431716524]
本稿では,DeepBC(Deep Backtracking counterfactuals)と呼ばれる手法を導入する。
特別な場合として、我々の定式化は、対実的説明の分野における手法に還元される。
論文 参考訳(メタデータ) (2023-10-11T17:11:10Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Counterfactual Explanations for Misclassified Images: How Human and
Machine Explanations Differ [11.508304497344637]
ブラックボックスのディープラーニングシステムの予測を解明する、eXplainable AI(XAI)問題に対する一般的なソリューションとして、カウンターファクトの説明が登場した。
100以上の対策方法が存在し、人々が好むものに似た、もっともらしい説明を生成すると主張しているが、実際にユーザでテストされているものはほとんどない。
ここでは, 誤分類画像に対する人間生成の反実的説明を根底から収集する新たな手法を用いて, この問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T22:05:38Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Fooling Partial Dependence via Data Poisoning [3.0036519884678894]
本稿では,部分依存(プロット,プロファイル,PDP)攻撃手法を提案する。
PDは,特に金融・医療分野において,対角的に操作可能であることを示す。
この愚かさは、データを汚染して曲げ、遺伝的勾配とアルゴリズムを用いて、所望の方向に説明をシフトすることで行われる。
論文 参考訳(メタデータ) (2021-05-26T20:58:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。