論文の概要: TDLS: A Top-Down Layer Searching Algorithm for Generating Counterfactual
Visual Explanation
- arxiv url: http://arxiv.org/abs/2108.04238v1
- Date: Sun, 8 Aug 2021 15:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:35:31.290150
- Title: TDLS: A Top-Down Layer Searching Algorithm for Generating Counterfactual
Visual Explanation
- Title(参考訳): tdls:偽の視覚的説明を生成するトップダウン層探索アルゴリズム
- Authors: Cong Wang, Haocheng Han and Caleb Chen Cao
- Abstract要約: きめ細かい画像分類問題に対して, 反実的説明を適用した。
我々のTDLSアルゴリズムは、より柔軟な対実的な視覚的説明を提供する可能性があることを証明した。
最後に, 対実的な視覚的説明のいくつかのシナリオについて論じる。
- 参考スコア(独自算出の注目度): 4.4553061479339995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanation of AI, as well as fairness of algorithms' decisions and the
transparency of the decision model, are becoming more and more important. And
it is crucial to design effective and human-friendly techniques when opening
the black-box model. Counterfactual conforms to the human way of thinking and
provides a human-friendly explanation, and its corresponding explanation
algorithm refers to a strategic alternation of a given data point so that its
model output is "counter-facted", i.e. the prediction is reverted. In this
paper, we adapt counterfactual explanation over fine-grained image
classification problem. We demonstrated an adaptive method that could give a
counterfactual explanation by showing the composed counterfactual feature map
using top-down layer searching algorithm (TDLS). We have proved that our TDLS
algorithm could provide more flexible counterfactual visual explanation in an
efficient way using VGG-16 model on Caltech-UCSD Birds 200 dataset. At the end,
we discussed several applicable scenarios of counterfactual visual
explanations.
- Abstract(参考訳): AIの説明やアルゴリズムの決定の公平さ、決定モデルの透明性がますます重要になっている。
そして、ブラックボックスモデルを開く際に、効果的で人間フレンドリーなテクニックを設計することが重要です。
カウンターファクトは人間の考え方に適合し、人間に優しい説明を提供し、それに対応する説明アルゴリズムは与えられたデータポイントの戦略的変更を指して、そのモデル出力が「カウントファクト」である。
予測は逆転する。
本稿では,細粒度画像分類問題に対する反実的説明に適応する。
トップダウン層探索アルゴリズム (TDLS) を用いて, 合成した反現実的特徴写像を示すことで, 対実的説明を与える適応的手法を実証した。
我々のTDLSアルゴリズムは、カルテックUCSD Birds 200データセット上のVGG-16モデルを用いて、より柔軟な対実的な視覚的説明を提供することができることを示した。
最後に,反事実的視覚的説明の応用シナリオについて考察した。
関連論文リスト
- From Wrong To Right: A Recursive Approach Towards Vision-Language
Explanation [60.746079839840895]
ReVisE: a $textbfRe$cursive $textbfVis$ual $textbfE$xplanationアルゴリズムを示します。
本手法は,視覚的特徴(テキスト入力で条件付き),回答,説明を反復的に計算する。
この多段階のアプローチは、モデルが自身の回答を正し、単段階の説明生成よりも優れた結果をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-11-21T07:02:32Z) - Transparent Anomaly Detection via Concept-based Explanations [4.3900160011634055]
異常検出のための透過型異常検出概念記述法(ACE)を提案する。
ACEは、人間の解釈可能な概念の説明と異常予測を提供する。
提案モデルではブラックボックスの非解釈モデルよりも高いか同等の結果を示す。
論文 参考訳(メタデータ) (2023-10-16T11:46:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Reinforcement Explanation Learning [4.852320309766702]
従順写像を生成するブラックボックス法は、決定を説明するためにモデルの内部を使わないという事実から、特に興味深い。
逐次探索問題としてサリエンシマップ生成を定式化し、強化学習(RL)を利用して入力画像から証拠を蓄積する。
3つのベンチマークデータセットの実験は、提案手法がパフォーマンスを損なわずに最先端の予測時間よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-26T10:20:01Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。