論文の概要: This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning
- arxiv url: http://arxiv.org/abs/2012.11905v1
- Date: Tue, 22 Dec 2020 10:08:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:49:17.003428
- Title: This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning
- Title(参考訳): これはあなたが探しているTextureではありません!
生成的逆境学習を用いた非熟練者に対する新しい反事実的説明の導入
- Authors: Silvan Mertes, Tobias Huber, Katharina Weitz, Alexander Heimerl,
Elisabeth Andr\'e
- Abstract要約: 反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 59.17685450892182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the ongoing rise of machine learning, the need for methods for
explaining decisions made by artificial intelligence systems is becoming a more
and more important topic. Especially for image classification tasks, many
state-of-the-art tools to explain such classifiers rely on visual highlighting
of important areas of the input data. Contrary, counterfactual explanation
systems try to enable a counterfactual reasoning by modifying the input image
in a way such that the classifier would have made a different prediction. By
doing so, the users of counterfactual explanation systems are equipped with a
completely different kind of explanatory information. However, methods for
generating realistic counterfactual explanations for image classifiers are
still rare. In this work, we present a novel approach to generate such
counterfactual image explanations based on adversarial image-to-image
translation techniques. Additionally, we conduct a user study to evaluate our
approach in a use case which was inspired by a healthcare scenario. Our results
show that our approach leads to significantly better results regarding mental
models, explanation satisfaction, trust, emotions, and self-efficacy than two
state-of-the art systems that work with saliency maps, namely LIME and LRP.
- Abstract(参考訳): 機械学習の台頭に伴い、人工知能システムによる意思決定を説明する方法の必要性がますます重要になっている。
特に画像分類タスクでは、そのような分類器を説明する多くの最先端ツールが、入力データの重要な領域の視覚的ハイライトに依存している。
対照的に、対実的説明システムでは、分類器が異なる予測を行うように入力画像を変更することで、反実的推論を可能にしようとする。
これにより、反事実説明システムの利用者は、全く異なる種類の説明情報を備えている。
しかし、画像分類器の現実的な反実的説明を生成する方法はまだ稀である。
本研究では, 対角画像から画像への変換技術に基づいて, 対実画像の説明を生成する手法を提案する。
さらに,医療シナリオにインスパイアされたユースケースにおいて,アプローチを評価するためのユーザスタディを実施している。
以上の結果から, 精神モデル, 説明満足度, 信頼感, 感情, 自己効力感に関するアプローチは, LIME と LRP を併用した2つの最先端技術システムよりも有意に良好な結果が得られた。
関連論文リスト
- Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - TExplain: Explaining Learned Visual Features via Pre-trained (Frozen) Language Models [14.019349267520541]
本稿では,事前学習した画像分類器の学習特徴を解釈するために,言語モデルの能力を活用する新しい手法を提案する。
提案手法は,与えられた画像の分類器によって学習された特徴を説明するために,膨大な数の文を生成する。
提案手法は,視覚表現に対応する頻繁な単語を初めて利用し,意思決定プロセスに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-01T20:59:46Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Making Heads or Tails: Towards Semantically Consistent Visual
Counterfactuals [31.375504774744268]
視覚的対物的説明は、クエリ画像内の画像領域を、イントラクタ画像から領域に置き換えて、変換された画像に対するシステムの判断がイントラクタクラスに変化するようにする。
本稿では2つの重要なアイデアに基づいて視覚的対実的説明を計算するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-24T07:26:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。