論文の概要: Switchable Self-attention Module
- arxiv url: http://arxiv.org/abs/2209.05680v1
- Date: Tue, 13 Sep 2022 01:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:53:02.983163
- Title: Switchable Self-attention Module
- Title(参考訳): スイッチ可能なセルフアテンションモジュール
- Authors: Shanshan Zhong, Wushao Wen, Jinghui Qin
- Abstract要約: 自己注意モジュールSEMを提案する。
SEMは、アテンションモジュールと代替アテンション演算子の入力情報に基づいて、自動的にアテンション演算子を選択し、統合してアテンションマップを計算することができる。
SEMの有効性は、広く使われているベンチマークデータセットと一般的な自己注意ネットワークに関する広範な実験によって実証されている。
- 参考スコア(独自算出の注目度): 3.8992324495848356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention mechanism has gained great success in vision recognition. Many
works are devoted to improving the effectiveness of attention mechanism, which
finely design the structure of the attention operator. These works need lots of
experiments to pick out the optimal settings when scenarios change, which
consumes a lot of time and computational resources. In addition, a neural
network often contains many network layers, and most studies often use the same
attention module to enhance different network layers, which hinders the further
improvement of the performance of the self-attention mechanism. To address the
above problems, we propose a self-attention module SEM. Based on the input
information of the attention module and alternative attention operators, SEM
can automatically decide to select and integrate attention operators to compute
attention maps. The effectiveness of SEM is demonstrated by extensive
experiments on widely used benchmark datasets and popular self-attention
networks.
- Abstract(参考訳): 注意機構は視覚認識において大きな成功を収めた。
多くの研究は、注意操作者の構造を微妙に設計する、注意機構の有効性の改善に費やされている。
これらの作業は、シナリオが変わったときに最適な設定を選択し、多くの時間と計算リソースを消費するために、多くの実験を必要とします。
さらに、ニューラルネットワークは、しばしば多くのネットワーク層を含んでいるが、ほとんどの研究は、異なるネットワーク層を強化するために、同じアテンションモジュールを使用しており、自己認識機構の性能のさらなる向上を妨げる。
上記の問題に対処するため,自己注意モジュールSEMを提案する。
アテンションモジュールとオルタナティブアテンションオペレータの入力情報に基づいて、semはアテンションオペレータの選択と統合を自動的に決定してアテンションマップを計算する。
SEMの有効性は、広く使われているベンチマークデータセットと一般的な自己注意ネットワークに関する広範な実験によって実証されている。
関連論文リスト
- A Primal-Dual Framework for Transformers and Neural Networks [52.814467832108875]
自己注意は、シーケンスモデリングタスクにおけるトランスフォーマーの顕著な成功の鍵である。
自己アテンションは、支持ベクトル回帰問題から導かれる支持ベクトル展開に対応することを示す。
Batch Normalized Attention (Attention-BN) と Scaled Head (Attention-SH) の2つの新しい注意点を提案する。
論文 参考訳(メタデータ) (2024-06-19T19:11:22Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Self-Supervised Implicit Attention: Guided Attention by The Model Itself [1.3406858660972554]
我々は、深層ニューラルネットワークモデルに適応的に誘導し、モデル自体の特性を活用する新しいアプローチである、自己監視インシシット注意(SSIA:Self-Supervised Implicit Attention)を提案する。
SSIAAは、推論中に余分なパラメータ、計算、メモリアクセスコストを必要としない新しいアテンションメカニズムである。
私たちの実装はGitHubで公開されます。
論文 参考訳(メタデータ) (2022-06-15T10:13:34Z) - Assessing the Impact of Attention and Self-Attention Mechanisms on the
Classification of Skin Lesions [0.0]
注意モジュールと自己注意という,2種類の注意機構に注目した。
注意モジュールは各層入力テンソルの特徴を再重み付けするために使用される。
自己認識(Self-Attention)は、元々自然言語処理の分野で提案されていたもので、入力シーケンス内のすべての項目を関連付けることができる。
論文 参考訳(メタデータ) (2021-12-23T18:02:48Z) - TDAN: Top-Down Attention Networks for Enhanced Feature Selectivity in
CNNs [18.24779045808196]
本稿では,トップダウンチャネルと空間変調を行うために,視覚検索ライトを反復的に生成する軽量なトップダウンアテンションモジュールを提案する。
我々のモデルは、推論中の入力解像度の変化に対してより堅牢であり、個々のオブジェクトや特徴を明示的な監督なしに各計算ステップでローカライズすることで、注意を"シフト"することを学ぶ。
論文 参考訳(メタデータ) (2021-11-26T12:35:17Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Attention in Attention Network for Image Super-Resolution [18.2279472158217]
静的な注意メカニズムを定量化し、視覚化し、すべての注意モジュールが等しく有益ではないことを示します。
高精度な画像SRのために注目ネットワーク(A$2$N)への注目を提案します。
我々のモデルは最先端の軽量ネットワークと比較して優れたトレードオフ性能を実現することができる。
論文 参考訳(メタデータ) (2021-04-19T17:59:06Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。