論文の概要: Alignment Attention by Matching Key and Query Distributions
- arxiv url: http://arxiv.org/abs/2110.12567v1
- Date: Mon, 25 Oct 2021 00:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 07:54:11.592885
- Title: Alignment Attention by Matching Key and Query Distributions
- Title(参考訳): キーとクエリ分布のマッチングによるアライメント注意
- Authors: Shujian Zhang, Xinjie Fan, Huangjie Zheng, Korawat Tanwisuth, Mingyuan
Zhou
- Abstract要約: 本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
- 参考スコア(独自算出の注目度): 48.93793773929006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neural attention mechanism has been incorporated into deep neural
networks to achieve state-of-the-art performance in various domains. Most such
models use multi-head self-attention which is appealing for the ability to
attend to information from different perspectives. This paper introduces
alignment attention that explicitly encourages self-attention to match the
distributions of the key and query within each head. The resulting alignment
attention networks can be optimized as an unsupervised regularization in the
existing attention framework. It is simple to convert any models with
self-attention, including pre-trained ones, to the proposed alignment
attention. On a variety of language understanding tasks, we show the
effectiveness of our method in accuracy, uncertainty estimation, generalization
across domains, and robustness to adversarial attacks. We further demonstrate
the general applicability of our approach on graph attention and visual
question answering, showing the great potential of incorporating our alignment
method into various attention-related tasks.
- Abstract(参考訳): ニューラルアテンションメカニズムは、様々なドメインで最先端のパフォーマンスを達成するためにディープニューラルネットワークに組み込まれている。
このようなモデルのほとんどは、異なる視点からの情報に出席する能力にアピールするマルチヘッドの自己注意を使用している。
本稿では,各頭部におけるキーの分布と問合せの一致を明示的に促すアライメント注意について述べる。
その結果、アライメントアテンションネットワークは、既存のアテンションフレームワークにおける教師なしの正規化として最適化できる。
事前学習したモデルを含む自己注意のモデルはすべて、提案されたアライメントアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
さらに,グラフ注目と視覚的質問応答に対するアプローチの一般的な適用可能性を示し,アライメント手法を様々な注意関連タスクに組み込む可能性を示す。
関連論文リスト
- Improving Speech Emotion Recognition Through Focus and Calibration
Attention Mechanisms [0.5994412766684842]
既存のマルチヘッド自己注意における注意と信号振幅の相違を同定する。
そこで本研究では,マルチヘッド・セルフアテンションと組み合わせて,フォーカス・アテンション(FA)機構とノベル・アテンション(CA)機構を提案する。
CA機構を利用することで、異なる重みをそれぞれのアテンションヘッドに割り当てることで、情報フローを変調し、周囲のコンテキストの利用を改善することができる。
論文 参考訳(メタデータ) (2022-08-21T08:04:22Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Repulsive Attention: Rethinking Multi-head Attention as Bayesian
Inference [68.12511526813991]
ベイズの視点からの多面的注目の新たな理解を提供する。
マルチヘッドアテンションにおける反発性を明示的に改善する非パラメトリックアプローチを提案する。
様々な注意モデルや応用実験により、提案された反発的注意が学習された特徴の多様性を向上させることが示されている。
論文 参考訳(メタデータ) (2020-09-20T06:32:23Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。