論文の概要: From Heatmaps to Structural Explanations of Image Classifiers
- arxiv url: http://arxiv.org/abs/2109.06365v1
- Date: Mon, 13 Sep 2021 23:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 04:03:24.162093
- Title: From Heatmaps to Structural Explanations of Image Classifiers
- Title(参考訳): 熱マップから画像分類器の構造記述へ
- Authors: Li Fuxin, Zhongang Qi, Saeed Khorram, Vivswan Shitole, Prasad
Tadepalli, Minsuk Kahng, Alan Fern
- Abstract要約: この論文は、Deep Networkからいくつかの高レベルな概念を純粋に抽出し視覚化しようとする、説明可能なニューラルネットワーク(XNN)を説明することから始まる。
重要な欠落点が信頼性の高いヒートマップ可視化ツールであることに気付き、I-GOSとiGOS++を開発した。
研究プロセスを通じて、我々はディープネットワークの説明を構築する上での洞察について多くを学びました。
- 参考スコア(独自算出の注目度): 31.44267537307587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper summarizes our endeavors in the past few years in terms of
explaining image classifiers, with the aim of including negative results and
insights we have gained. The paper starts with describing the explainable
neural network (XNN), which attempts to extract and visualize several
high-level concepts purely from the deep network, without relying on human
linguistic concepts. This helps users understand network classifications that
are less intuitive and substantially improves user performance on a difficult
fine-grained classification task of discriminating among different species of
seagulls.
Realizing that an important missing piece is a reliable heatmap visualization
tool, we have developed I-GOS and iGOS++ utilizing integrated gradients to
avoid local optima in heatmap generation, which improved the performance across
all resolutions. During the development of those visualizations, we realized
that for a significant number of images, the classifier has multiple different
paths to reach a confident prediction. This has lead to our recent development
of structured attention graphs (SAGs), an approach that utilizes beam search to
locate multiple coarse heatmaps for a single image, and compactly visualizes a
set of heatmaps by capturing how different combinations of image regions impact
the confidence of a classifier.
Through the research process, we have learned much about insights in building
deep network explanations, the existence and frequency of multiple
explanations, and various tricks of the trade that make explanations work. In
this paper, we attempt to share those insights and opinions with the readers
with the hope that some of them will be informative for future researchers on
explainable deep learning.
- Abstract(参考訳): 本稿では,画像分類器の説明における過去数年間の取り組みを,ネガティブな結果と洞察を取り入れた形で要約する。
論文は、人間の言語概念に頼らずに、深層ネットワークから純粋にハイレベルな概念をいくつか抽出し視覚化しようとする、説明可能なニューラルネットワーク(xnn)を説明することから始まります。
これにより、ユーザーは直感的でないネットワーク分類を理解し、異なる種類のカモメを識別する難しいきめ細かな分類タスクにおいて、ユーザパフォーマンスを大幅に向上する。
I-GOS と iGOS++ は,ヒートマップ生成における局所的な最適化を回避するため,全解像度での性能向上を実現している。
それらの視覚化の開発において,かなりの数の画像に対して,分類器は複数の異なる経路を持ち,確実な予測に到達できることに気付いた。
これは、ビームサーチを利用して単一の画像に対して複数の粗いヒートマップを見つけ出し、画像領域の異なる組み合わせが分類器の信頼性にどのように影響するかを捉えることで、一連のヒートマップをコンパクトに視覚化する手法です。
研究プロセスを通じて、深いネットワーク説明の構築に関する洞察、複数の説明の存在と頻度、説明を機能させる取引の様々なトリックについて多くを学びました。
本稿では、これらの洞察と意見を読者と共有し、その一部が将来の研究者にとって説明可能な深層学習に役立てることを期待する。
関連論文リスト
- Efficient Visualization of Neural Networks with Generative Models and Adversarial Perturbations [0.0]
本稿では,既存の手法を改良した生成ネットワークによるディープビジュアライゼーション手法を提案する。
我々のモデルは、使用するネットワーク数を減らし、ジェネレータと識別器のみを必要とすることにより、アーキテクチャを単純化する。
我々のモデルは、事前の訓練知識を少なくし、差別者がガイドとして機能する非敵的訓練プロセスを使用する。
論文 参考訳(メタデータ) (2024-09-20T14:59:25Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Masked Contrastive Graph Representation Learning for Age Estimation [44.96502862249276]
本稿では,画像冗長性情報を扱う上で,グラフ表現学習の特性を利用する。
年齢推定のためのMasked Contrastive Graph Representation Learning (MCGRL)法を提案する。
実世界の顔画像データセットに対する実験結果から,提案手法が他の最先端の年齢推定手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-16T15:53:21Z) - Multi-modal reward for visual relationships-based image captioning [4.354364351426983]
本稿では、画像のシーングラフから抽出した視覚的関係情報を画像の空間的特徴マップに融合させることにより、画像キャプションのためのディープニューラルネットワークアーキテクチャを提案する。
次に、共通埋め込み空間における言語と視覚の類似性の組み合わせを用いて、提案するネットワークの深層強化学習のためにマルチモーダル報酬関数を導入する。
論文 参考訳(メタデータ) (2023-03-19T20:52:44Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - SGUIE-Net: Semantic Attention Guided Underwater Image Enhancement with
Multi-Scale Perception [18.87163028415309]
そこで我々はSGUIE-Netと呼ばれる新しい水中画像強調ネットワークを提案する。
一般的な意味領域を共有する様々な画像に対して,意味情報を高レベルなガイダンスとして導入する。
この戦略は、異なるセマンティックオブジェクトに対する堅牢で視覚的に快適な拡張を実現するのに役立ちます。
論文 参考訳(メタデータ) (2022-01-08T14:03:24Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Multi-Modal Retrieval using Graph Neural Networks [1.8911962184174562]
我々は、同じ高次元空間に埋め込まれた共同ビジョンと概念を学ぶ。
視覚と概念の関係をグラフ構造としてモデル化する。
また、選択的近傍接続に基づく新しい推論時間制御も導入する。
論文 参考訳(メタデータ) (2020-10-04T19:34:20Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。