論文の概要: SCOUT: Self-aware Discriminant Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2004.07769v1
- Date: Thu, 16 Apr 2020 17:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:56:22.693864
- Title: SCOUT: Self-aware Discriminant Counterfactual Explanations
- Title(参考訳): SCOUT: 自己認識型差別的対実的説明
- Authors: Pei Wang, Nuno Vasconcelos
- Abstract要約: 対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
- 参考スコア(独自算出の注目度): 78.79534272979305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of counterfactual visual explanations is considered. A new family
of discriminant explanations is introduced. These produce heatmaps that
attribute high scores to image regions informative of a classifier prediction
but not of a counter class. They connect attributive explanations, which are
based on a single heat map, to counterfactual explanations, which account for
both predicted class and counter class. The latter are shown to be computable
by combination of two discriminant explanations, with reversed class pairs. It
is argued that self-awareness, namely the ability to produce classification
confidence scores, is important for the computation of discriminant
explanations, which seek to identify regions where it is easy to discriminate
between prediction and counter class. This suggests the computation of
discriminant explanations by the combination of three attribution maps. The
resulting counterfactual explanations are optimization free and thus much
faster than previous methods. To address the difficulty of their evaluation, a
proxy task and set of quantitative metrics are also proposed. Experiments under
this protocol show that the proposed counterfactual explanations outperform the
state of the art while achieving much higher speeds, for popular networks. In a
human-learning machine teaching experiment, they are also shown to improve mean
student accuracy from chance level to 95\%.
- Abstract(参考訳): 対物的な視覚的な説明の問題は考慮される。
新しい差別的な説明の族が紹介される。
これらのヒートマップは、分類器の予測を知らせるがカウンタクラスではない画像領域に高得点を付与する。
彼らは一つの熱マップに基づく帰属的な説明を、予測されたクラスとカウンタークラスの両方を説明する反実的な説明に結びつける。
後者は2つの区別された説明と逆クラス対の組み合わせで計算可能である。
自己認識、すなわち分類信頼度スコアを生成する能力は、予測とカウンタークラスの区別が容易な領域を識別しようとする差別的説明の計算において重要であると論じている。
これは、3つの帰属写像の組み合わせによる差別的説明の計算を示唆する。
結果として生じる反事実的説明は最適化の自由であり、従って以前の方法よりもはるかに高速である。
評価の難しさに対処するために,プロキシタスクと定量的指標のセットも提案されている。
このプロトコルによる実験により、提案手法は、一般的なネットワークにおいて、より高速な動作を実現しつつ、技術状況よりも優れていることが示された。
また,人間学習機械による学習実験では,平均学生の精度を確率レベルから95%に向上させた。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Counterfactual Explanations via Latent Space Projection and
Interpolation [0.0]
SharpShooterは、ターゲットクラスとして分類する入力の投影バージョンを作成することから始まるバイナリ分類のメソッドである。
次に,本フレームワークは,学習表現を用いて,サンプルのコア特性をその逆ファクトに変換することを示した。
論文 参考訳(メタデータ) (2021-12-02T00:07:49Z) - Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities [2.0931163605360115]
説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
論文 参考訳(メタデータ) (2021-04-29T13:59:21Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。