論文の概要: Compositional Explanations for Image Classifiers
- arxiv url: http://arxiv.org/abs/2103.03622v1
- Date: Fri, 5 Mar 2021 11:54:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 16:50:36.165245
- Title: Compositional Explanations for Image Classifiers
- Title(参考訳): 画像分類器の構成解説
- Authors: Hana Chockler, Daniel Kroening, Youcheng Sun
- Abstract要約: 本稿では,因果理論に基づく原理的アプローチを用いた説明計算のための新しいブラックボックスアルゴリズムを提案する。
この手法をツールCET(コンポジション説明ツール)で実装します。
- 参考スコア(独自算出の注目度): 18.24535957515688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing algorithms for explaining the output of image classifiers perform
poorly on inputs where the object of interest is partially occluded. We present
a novel, black-box algorithm for computing explanations that uses a principled
approach based on causal theory. We implement the method in the tool CET
(Compositional Explanation Tool). Owing to the compositionality in its
algorithm, CET computes explanations that are much more accurate than those
generated by the existing explanation tools on images with occlusions and
delivers a level of performance comparable to the state of the art when
explaining images without occlusions.
- Abstract(参考訳): 画像分類器の出力を説明する既存のアルゴリズムは、関心のあるオブジェクトが部分的に含まれている入力で不十分に実行されます。
本稿では,因果理論に基づく原理的アプローチを用いた説明計算のための新しいブラックボックスアルゴリズムを提案する。
このメソッドはツールCET(Compositional Explanation Tool)で実装しています。
アルゴリズムの構成性により、CETは、既存の説明ツールで生成された説明よりもずっと正確な説明を閉塞を伴う画像で計算し、閉塞のない画像を説明するときの芸術の状態に匹敵するレベルのパフォーマンスを提供します。
関連論文リスト
- Causal Explanations for Image Classifiers [17.736724129275043]
本稿では,実際の因果性理論に基づく計算説明に対する新しいブラックボックスアプローチを提案する。
これらの定義に基づいて近似的な説明を計算するためのアルゴリズムを提案する。
rexは最も効率的なツールであり、最小の説明を生成することを実証する。
論文 参考訳(メタデータ) (2024-11-13T18:52:42Z) - Finetuning CLIP to Reason about Pairwise Differences [52.028073305958074]
本稿では,CLIPのような視覚言語モデルの学習手法を提案する。
我々はまず,ある属性による画像のランク付け能力を大幅に向上させることを実証した。
また、得られる埋め込みは埋め込み空間においてより大きな幾何学的性質に従うことを示す。
論文 参考訳(メタデータ) (2024-09-15T13:02:14Z) - Taming CLIP for Fine-grained and Structured Visual Understanding of Museum Exhibits [59.66134971408414]
博物館展示の微細で構造化された理解にCLIPを適用することを目的としている。
私たちのデータセットは、パブリックドメインで最初のものです。
提案手法(MUZE)は,変換器を用いた解析ネットワーク(parseNet)を用いて,CLIPのイメージ埋め込みを表構造にマッピングする方法を学習する。
論文 参考訳(メタデータ) (2024-09-03T08:13:06Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Multiple Different Black Box Explanations for Image Classifiers [14.182742896993974]
与えられた画像に対するブラックボックス画像分類器の出力に関する複数の説明を計算するためのアルゴリズムとツールであるMultiReXについて述べる。
我々のアルゴリズムは因果理論に基づく原理的アプローチを用いる。
ImageNet-miniベンチマークでは、画像の96%にMultiReXが複数説明されているのに対し、以前の研究では11%しか説明されていない。
論文 参考訳(メタデータ) (2023-09-25T17:28:28Z) - No Token Left Behind: Explainability-Aided Image Classification and
Generation [79.4957965474334]
ここでは、CLIPが入力のすべての関連する意味的部分に焦点を当てることを保証するために、損失項を追加する新しい説明可能性に基づくアプローチを提案する。
本手法は, 追加訓練や微調整を伴わずに, 認識率の向上を図っている。
論文 参考訳(メタデータ) (2022-04-11T07:16:39Z) - Compositional Sketch Search [91.84489055347585]
フリーハンドスケッチを用いて画像コレクションを検索するアルゴリズムを提案する。
シーン構成全体を特定するための簡潔で直感的な表現として描画を利用する。
論文 参考訳(メタデータ) (2021-06-15T09:38:09Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Efficient and Parallel Separable Dictionary Learning [2.6905021039717987]
このような辞書を学習する高度に並列化可能なアルゴリズムについて述べる。
本稿では,画像とハイパースペクトルデータを疎結合に表現し,画像のデノゲーションを行うための提案手法の性能を強調した。
論文 参考訳(メタデータ) (2020-07-07T21:46:32Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z) - Explain and Improve: LRP-Inference Fine-Tuning for Image Captioning
Models [82.3793660091354]
本稿では,注意を可視化する以外に,注意機構を付加した画像キャプションモデルの予測について分析する。
我々は,注意機構を備えた画像キャプションモデルに適したレイヤワイド関連伝搬(LRP)と勾配に基づく説明法を開発した。
論文 参考訳(メタデータ) (2020-01-04T05:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。