論文の概要: Inverting the Feature Visualization Process for Feedforward Neural
Networks
- arxiv url: http://arxiv.org/abs/2007.10757v1
- Date: Tue, 21 Jul 2020 12:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:12:13.900540
- Title: Inverting the Feature Visualization Process for Feedforward Neural
Networks
- Title(参考訳): フィードフォワードニューラルネットワークの特徴可視化プロセスの反転
- Authors: Christian Reinbold (1), R\"udiger Westermann (1) ((1) Chair of
Computer Graphics and Visualization, Technical University of Munich, Bavaria,
Germany)
- Abstract要約: この研究は、ニューラルネットワークにおける特徴可視化の可逆性に光を当てている。
Inverse Feature Visualization(逆特徴可視化)により、アクティベーションではなく特徴目的を考慮した特定の入力に対するネットワーク感度の代替的なビューを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work sheds light on the invertibility of feature visualization in neural
networks. Since the input that is generated by feature visualization using
activation maximization does, in general, not yield the feature objective it
was optimized for, we investigate optimizing for the feature objective that
yields this input. Given the objective function used in activation maximization
that measures how closely a given input resembles the feature objective, we
exploit that the gradient of this function w.r.t. inputs is---up to a scaling
factor---linear in the objective. This observation is used to find the optimal
feature objective via computing a closed form solution that minimizes the
gradient. By means of Inverse Feature Visualization, we intend to provide an
alternative view on a networks sensitivity to certain inputs that considers
feature objectives rather than activations.
- Abstract(参考訳): この研究は、ニューラルネットワークにおける特徴可視化の可逆性に光を当てている。
アクティベーション最大化を用いた特徴可視化によって生成される入力は、最適化された特徴目標を得られないため、この入力を得られる特徴目標の最適化について検討する。
アクティベーション最大化において、与えられた入力が特徴目的にどの程度近いかを測定する目的関数を考えると、この関数w.r.t.入力の勾配は、目的のスケーリング係数--線形である。
この観測は、勾配を最小化する閉形式解を計算することによって最適な特徴目標を求めるために用いられる。
特徴の逆可視化により,アクティベーションではなく機能目標を考慮した入力に対して,ネットワークの感度を代替する視点を提供する。
関連論文リスト
- Vision Eagle Attention: A New Lens for Advancing Image Classification [0.8158530638728501]
コンボリューショナルな空間的注意力を用いた視覚的特徴抽出を促進する新しい注意機構であるビジョンイーグル注意(Vision Eagle Attention)を導入する。
このモデルは、局所的な空間的特徴を捉えるために畳み込みを適用し、画像の最も情報性の高い領域を選択的に強調するアテンションマップを生成する。
Vision Eagle Attentionを軽量なResNet-18アーキテクチャに統合しました。
論文 参考訳(メタデータ) (2024-11-15T20:21:59Z) - PREMAP: A Unifying PREiMage APproximation Framework for Neural Networks [30.701422594374456]
本稿では,任意の多面体出力集合のアンダー・アンド・オーバー近似を生成する事前抽象化のためのフレームワークを提案する。
提案手法を様々なタスクで評価し,高インプット次元画像分類タスクに対する効率とスケーラビリティの大幅な向上を示す。
論文 参考訳(メタデータ) (2024-08-17T17:24:47Z) - Feature Accentuation: Revealing 'What' Features Respond to in Natural Images [4.4273123155989715]
本稿では,任意の入力画像のどの位置と何にあるかが特徴の応答を誘導するかを伝達できる,解釈可能性ツールキット「Feature accentuation」に新たな手法を導入する。
パラメータ化,拡張,正規化の特別な組み合わせは,シード画像とターゲット特徴を同時に類似した自然な視覚化をもたらす。
我々は,Lucentの拡張であるFaccentライブラリとして,機能アクセントの正確な実装をコミュニティに提供する。
論文 参考訳(メタデータ) (2024-02-15T16:01:59Z) - FLatten Transformer: Vision Transformer using Focused Linear Attention [80.61335173752146]
線形注意(linear attention)は、その線形複雑性に対して、はるかに効率的な代替手段を提供する。
現在の線形アテンションアプローチは、大きなパフォーマンス劣化に悩まされるか、追加の計算オーバーヘッドを導入するかのいずれかである。
本研究では,高効率と表現性の両方を実現するために,新しいFocused Linear Attentionモジュールを提案する。
論文 参考訳(メタデータ) (2023-08-01T10:37:12Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Top-Down Visual Attention from Analysis by Synthesis [87.47527557366593]
我々は、古典的分析・合成(AbS)の視覚的視点からトップダウンの注意を考察する。
本稿では,AbSを変動的に近似したトップダウン変調ViTモデルであるAbSViT(Analytic-by-Synthesis Vision Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-23T05:17:05Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - TDAN: Top-Down Attention Networks for Enhanced Feature Selectivity in
CNNs [18.24779045808196]
本稿では,トップダウンチャネルと空間変調を行うために,視覚検索ライトを反復的に生成する軽量なトップダウンアテンションモジュールを提案する。
我々のモデルは、推論中の入力解像度の変化に対してより堅牢であり、個々のオブジェクトや特徴を明示的な監督なしに各計算ステップでローカライズすることで、注意を"シフト"することを学ぶ。
論文 参考訳(メタデータ) (2021-11-26T12:35:17Z) - Real-World Semantic Grasping Detection [0.34410212782758054]
本稿では,意味認識と把握検出を両立できるエンドツーエンドのセマンティック把握検出モデルを提案する。
また,検出を把握するためのセマンティック情報に基づき,単一のオブジェクトの特徴のみを保持するターゲット特徴フィルタリング機構を設計する。
実験結果から,コーネルグルーピングデータセットの98.38%の精度が得られた。
論文 参考訳(メタデータ) (2021-11-20T05:57:22Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。