論文の概要: Deeply Explain CNN via Hierarchical Decomposition
- arxiv url: http://arxiv.org/abs/2201.09205v1
- Date: Sun, 23 Jan 2022 07:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:50:49.332402
- Title: Deeply Explain CNN via Hierarchical Decomposition
- Title(参考訳): 階層的分解によるCNNの深い説明
- Authors: Ming-Ming Cheng, Peng-Tao Jiang, Ling-Hao Han, Liang Wang, Philip Torr
- Abstract要約: コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
- 参考スコア(独自算出の注目度): 75.01251659472584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In computer vision, some attribution methods for explaining CNNs attempt to
study how the intermediate features affect the network prediction. However,
they usually ignore the feature hierarchies among the intermediate features.
This paper introduces a hierarchical decomposition framework to explain CNN's
decision-making process in a top-down manner. Specifically, we propose a
gradient-based activation propagation (gAP) module that can decompose any
intermediate CNN decision to its lower layers and find the supporting features.
Then we utilize the gAP module to iteratively decompose the network decision to
the supporting evidence from different CNN layers. The proposed framework can
generate a deep hierarchy of strongly associated supporting evidence for the
network decision, which provides insight into the decision-making process.
Moreover, gAP is effort-free for understanding CNN-based models without network
architecture modification and extra training process. Experiments show the
effectiveness of the proposed method. The code and interactive demo website
will be made publicly available.
- Abstract(参考訳): コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
しかしながら、通常は中間機能間の機能階層を無視する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
具体的には、任意の中間CNN決定を下位層に分解し、サポート機能を見つけることができる勾配に基づくアクティベーション伝搬(gAP)モジュールを提案する。
次に、gAPモジュールを用いて、異なるCNN層からの支持エビデンスに対して、ネットワーク決定を反復的に分解する。
提案するフレームワークは,ネットワーク決定に強く関連する支持証拠の深い階層を生成することができ,意思決定プロセスに関する洞察を提供する。
さらに、ネットワークアーキテクチャの変更や追加のトレーニングプロセスなしにCNNベースのモデルを理解するのに、gAPは手間をかけない。
提案手法の有効性を示す実験を行った。
code and interactiveのデモwebサイトが公開される予定だ。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Interpreting CNN Predictions using Conditional Generative Adversarial
Networks [1.8416014644193066]
我々は、コンボリューショナルニューラルネットワーク(CNN)の視覚的解釈を生成するために、条件付きジェネレーターネットワーク(GAN)を訓練する。
CNNを理解するために、GANは予測を行う際に、CNNがどのように画像を処理しているかに関する情報を訓練する。
我々は,中間解釈マップの累積平均化により,CNNアーキテクチャの適切な表現を開発した。
論文 参考訳(メタデータ) (2023-01-19T13:26:12Z) - Demystifying CNNs for Images by Matched Filters [13.121514086503591]
畳み込みニューラルネットワーク(CNN)は、ビッグデータ時代のインテリジェントマシンのアプローチと使用方法に革命をもたらしています。
CNNは、そのテキストブラックボックスの性質と、その操作の理論的サポートと物理的意味の欠如により、精査されている。
本稿では,マッチングフィルタリングの観点を用いて,CNNの動作を復調する手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T12:39:17Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Interpretable Compositional Convolutional Neural Networks [20.726080433723922]
本稿では,従来の畳み込みニューラルネットワーク(CNN)を解釈可能な合成CNNに変換する手法を提案する。
合成CNNでは、各フィルタは、明確な意味を持つ特定の合成対象部分または画像領域を一貫して表現することになっている。
我々の手法は様々な種類のCNNに適用できる。
論文 参考訳(メタデータ) (2021-07-09T15:01:24Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Decoding CNN based Object Classifier Using Visualization [6.666597301197889]
CNNのさまざまな畳み込み層で抽出される特徴の種類を視覚化する。
アクティベーションのヒートマップを可視化することは、CNNが画像内の異なるオブジェクトを分類し、ローカライズする方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-15T05:01:27Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。