論文の概要: Interpreting CNN Predictions using Conditional Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2301.08067v3
- Date: Thu, 9 Nov 2023 15:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 19:04:04.431553
- Title: Interpreting CNN Predictions using Conditional Generative Adversarial
Networks
- Title(参考訳): 条件付き生成逆ネットワークを用いたCNN予測の解釈
- Authors: R T Akash Guna, Raul Benitez, O K Sikha
- Abstract要約: 我々は、コンボリューショナルニューラルネットワーク(CNN)の視覚的解釈を生成するために、条件付きジェネレーターネットワーク(GAN)を訓練する。
CNNを理解するために、GANは予測を行う際に、CNNがどのように画像を処理しているかに関する情報を訓練する。
我々は,中間解釈マップの累積平均化により,CNNアーキテクチャの適切な表現を開発した。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method that trains a conditional Generative Adversarial
Network (GAN) to generate visual interpretations of a Convolutional Neural
Network (CNN). To comprehend a CNN, the GAN is trained with information on how
the CNN processes an image when making predictions. Supplying that information
has two main challenges: how to represent this information in a form that is
feedable to the GANs and how to effectively feed the representation to the GAN.
To address these issues, we developed a suitable representation of CNN
architectures by cumulatively averaging intermediate interpretation maps. We
also propose two alternative approaches to feed the representations to the GAN
and to choose an effective training strategy. Our approach learned the general
aspects of CNNs and was agnostic to datasets and CNN architectures. The study
includes both qualitative and quantitative evaluations and compares the
proposed GANs with state-of-the-art approaches. We found that the initial
layers of CNNs and final layers are equally crucial for interpreting CNNs upon
interpreting the proposed GAN. We believe training a GAN to interpret CNNs
would open doors for improved interpretations by leveraging fast-paced deep
learning advancements. The code used for experimentation is publicly available
at https://github.com/Akash-guna/Explain-CNN-With-GANS
- Abstract(参考訳): 本稿では,コンボリューショナルニューラルネットワーク(CNN)の視覚的解釈を生成するために,条件付きGAN(Generative Adversarial Network)を訓練する手法を提案する。
CNNを理解するために、GANは予測を行う際に、CNNがどのように画像を処理しているかに関する情報を訓練する。
情報の提供には、この情報をGANに供給可能な形でどのように表現するか、GANに効果的に表現する方法の2つの主な課題がある。
これらの問題に対処するために,中間解釈マップの累積平均化によるCNNアーキテクチャの適切な表現を開発した。
また、GANに表現を供給し、効果的なトレーニング戦略を選択するための2つの方法を提案する。
我々のアプローチはCNNの一般的な側面を学び、データセットやCNNアーキテクチャに非依存でした。
この研究は質的および定量的評価の両方を含み、提案したGANと最先端のアプローチを比較している。
CNNの初期層と最終層は,提案したGANの解釈において,CNNの解釈に等しく重要であることがわかった。
我々は,CNN を解釈するための GAN の訓練が,速いペースの深層学習の進歩を活用することで,解釈を改善するための扉を開くと信じている。
実験に使われるコードはhttps://github.com/Akash-guna/Explain-CNN-With-GANSで公開されている。
関連論文リスト
- A Neurosymbolic Framework for Bias Correction in Convolutional Neural Networks [2.249916681499244]
我々は、訓練されたCNNにおいて、バイアス補正のためのNeSyBiCorと呼ばれるニューロシンボリックフレームワークを導入する。
我々のフレームワークは、"Places"データセットのサブセットでトレーニングされたCNNのバイアスを修正することに成功した。
論文 参考訳(メタデータ) (2024-05-24T19:09:53Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations [0.0]
畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
論文 参考訳(メタデータ) (2022-12-12T16:40:29Z) - Demystifying CNNs for Images by Matched Filters [13.121514086503591]
畳み込みニューラルネットワーク(CNN)は、ビッグデータ時代のインテリジェントマシンのアプローチと使用方法に革命をもたらしています。
CNNは、そのテキストブラックボックスの性質と、その操作の理論的サポートと物理的意味の欠如により、精査されている。
本稿では,マッチングフィルタリングの観点を用いて,CNNの動作を復調する手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T12:39:17Z) - Deeply Explain CNN via Hierarchical Decomposition [75.01251659472584]
コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:56:04Z) - Interpretable Compositional Convolutional Neural Networks [20.726080433723922]
本稿では,従来の畳み込みニューラルネットワーク(CNN)を解釈可能な合成CNNに変換する手法を提案する。
合成CNNでは、各フィルタは、明確な意味を持つ特定の合成対象部分または画像領域を一貫して表現することになっている。
我々の手法は様々な種類のCNNに適用できる。
論文 参考訳(メタデータ) (2021-07-09T15:01:24Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。