論文の概要: A Generic Visualization Approach for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2007.09748v1
- Date: Sun, 19 Jul 2020 18:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:23:39.737807
- Title: A Generic Visualization Approach for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの汎用的可視化手法
- Authors: Ahmed Taha, Xitong Yang, Abhinav Shrivastava, and Larry Davis
- Abstract要約: 我々は、制約付き最適化問題として注意の可視化を定式化する。
我々は、L2-Norm制約を注意フィルタ(L2-CAF)として利用し、分類と検索の双方で注意をローカライズする。
- 参考スコア(独自算出の注目度): 48.30883603606862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval networks are essential for searching and indexing. Compared to
classification networks, attention visualization for retrieval networks is
hardly studied. We formulate attention visualization as a constrained
optimization problem. We leverage the unit L2-Norm constraint as an attention
filter (L2-CAF) to localize attention in both classification and retrieval
networks. Unlike recent literature, our approach requires neither architectural
changes nor fine-tuning. Thus, a pre-trained network's performance is never
undermined
L2-CAF is quantitatively evaluated using weakly supervised object
localization. State-of-the-art results are achieved on classification networks.
For retrieval networks, significant improvement margins are achieved over a
Grad-CAM baseline. Qualitative evaluation demonstrates how the L2-CAF
visualizes attention per frame for a recurrent retrieval network. Further
ablation studies highlight the computational cost of our approach and compare
L2-CAF with other feasible alternatives. Code available at
https://bit.ly/3iDBLFv
- Abstract(参考訳): 検索ネットワークは検索と索引付けに不可欠である。
分類ネットワークと比較すると,検索ネットワークに対する注意の可視化はほとんど研究されていない。
制約付き最適化問題として注意可視化を定式化する。
我々は、L2-Norm制約を注意フィルタ(L2-CAF)として利用し、分類と検索の双方で注意をローカライズする。
最近の文献とは異なり、このアプローチではアーキテクチャの変更も微調整も必要ありません。
したがって、事前学習されたネットワークの性能を損なうことなく、弱教師付きオブジェクトローカライゼーションを用いてL2-CAFを定量的に評価する。
最先端の成果は分類ネットワークで達成される。
検索ネットワークでは、Grad-CAMベースライン上で大幅に改善される。
定性的評価は、L2-CAFが繰り返し検索ネットワークのフレーム毎の注意を可視化する方法を示す。
さらなるアブレーション研究は、我々のアプローチの計算コストを強調し、L2-CAFを他の実現可能な代替品と比較する。
コードはhttps://bit.ly/3idblfvで利用可能
関連論文リスト
- A novel adversarial learning strategy for medical image classification [9.253330143870427]
補助畳み込みニューラルネットワーク(AuxCNN)は、中間層のトレーニングを容易にするために、従来の分類ネットワーク上に採用されている。
本研究では,医用画像分類のための深層ニューラルネットワークのトレーニングを支援するための,対角学習に基づくAuxCNNを提案する。
論文 参考訳(メタデータ) (2022-06-23T06:57:17Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - GCA-Net : Utilizing Gated Context Attention for Improving Image Forgery
Localization and Detection [0.9883261192383611]
本稿では,グローバルな文脈学習に非局所的注意ブロックを利用するGated Context Attention Network (GCA-Net)を提案する。
提案手法は,複数のベンチマークデータセットにおいて,平均4.2%-5.4%のAUCで最先端のネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2021-12-08T14:13:14Z) - Where to Look: A Unified Attention Model for Visual Recognition with
Reinforcement Learning [5.247711598719703]
視覚的注意を繰り返すために,トップダウンとボトムアップを一体化することを提案する。
我々のモデルは、画像ピラミッドとQラーニングを利用して、トップダウンアテンションメカニズムにおける関心領域を選択する。
我々は、エンドツーエンドの強化学習フレームワークでモデルをトレーニングし、視覚的分類タスクにおける手法の評価を行う。
論文 参考訳(メタデータ) (2021-11-13T18:44:50Z) - Cascade Network with Guided Loss and Hybrid Attention for Finding Good
Correspondences [33.65360396430535]
画像対の対応セットが与えられた場合、バイナリクラス分類器によって正しい対応を見つけるニューラルネットワークを提案する。
対象関数を動的に調整するためのガイダンスとして評価基準(Fn測度)を直接利用できる新しいガイド付き損失を提案する。
次に、ベイズ文脈正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリッドアテンションブロックを提案する。
論文 参考訳(メタデータ) (2021-01-31T08:33:20Z) - Cascade Network with Guided Loss and Hybrid Attention for Two-view
Geometry [32.52184271700281]
本稿では,損失とFn値の直接負の相関関係を確立するためのガイド付き損失を提案する。
次に,特徴抽出のためのハイブリットアテンションブロックを提案する。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2020-07-11T07:44:04Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。