論文の概要: Supervised Attention in Sequence-to-Sequence Models for Speech
Recognition
- arxiv url: http://arxiv.org/abs/2204.12308v1
- Date: Mon, 25 Apr 2022 15:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:09:22.427553
- Title: Supervised Attention in Sequence-to-Sequence Models for Speech
Recognition
- Title(参考訳): 音声認識におけるシーケンス・ツー・シーケンスモデルにおける教師付き注意
- Authors: Gene-Ping Yang, Hao Tang
- Abstract要約: トレーニングしたモデルによって生成された注意重みは、必ずしも実際のアライメントとよく一致しないことを示す。
注意重みとアライメントの対応を教師付き注意損失を付与することにより学習問題として扱う。
実験では、トレーニング中にアライメントをうまく学習することで、シーケンス・ツー・シーケンス・モデルの性能を決定できることが示唆された。
- 参考スコア(独自算出の注目度): 15.44609280660252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention mechanism in sequence-to-sequence models is designed to model the
alignments between acoustic features and output tokens in speech recognition.
However, attention weights produced by models trained end to end do not always
correspond well with actual alignments, and several studies have further argued
that attention weights might not even correspond well with the relevance
attribution of frames. Regardless, visual similarity between attention weights
and alignments is widely used during training as an indicator of the models
quality. In this paper, we treat the correspondence between attention weights
and alignments as a learning problem by imposing a supervised attention loss.
Experiments have shown significant improved performance, suggesting that
learning the alignments well during training critically determines the
performance of sequence-to-sequence models.
- Abstract(参考訳): 連続系列モデルの注意機構は、音声認識における音響特徴と出力トークンのアライメントをモデル化するために設計されている。
しかし、訓練されたモデルが生成した注意重みは、常に実際のアライメントに適合するとは限らないし、いくつかの研究は注意重みはフレームの帰属とうまく一致しないかもしれないと論じている。
にもかかわらず、注意重みとアライメントの視覚的類似性は、モデル品質の指標として訓練中に広く使用されている。
本稿では,注目度とアライメントの対応を教師付き注意損失を付与することにより学習問題として扱う。
実験では、トレーニング中にアライメントをよく学習することで、シーケンシャル・ツー・シーケンスモデルのパフォーマンスが決定的に決定されることが示唆された。
関連論文リスト
- Prophet Attention: Predicting Attention with Future Attention for Image
Captioning [99.88870695151874]
我々は,預言者意識(Prophet Attention)を提案する。
提案した預言意図は,既存の画像キャプションモデルに容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-10-19T22:29:31Z) - Guiding Visual Question Answering with Attention Priors [76.21671164766073]
本稿では,言語・視覚的接地による注意機構の導出について述べる。
この基礎は、クエリ内の構造化言語概念を視覚オブジェクト間の参照物に接続することで導かれる。
このアルゴリズムは、注意に基づく推論モデルを調べ、関連する連想的知識を注入し、コア推論プロセスを制御する。
論文 参考訳(メタデータ) (2022-05-25T09:53:47Z) - Continuous-Time Audiovisual Fusion with Recurrence vs. Attention for
In-The-Wild Affect Recognition [4.14099371030604]
本稿では,第3報 ABAW (Affective Behavior Analysis in-the-Wild) 課題について述べる。
再帰性と注意(Recurrence and attention)は、文献で広く使われている2つのシーケンスモデリングメカニズムである。
LSTM-RNNは低コンプレックスCNNバックボーンと組み合わせることでアテンションモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-24T18:22:56Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Impact of Attention on Adversarial Robustness of Image Classification
Models [0.9176056742068814]
ディープラーニングモデルに対するアドリアック攻撃が注目されている。
近年の研究では、これらの攻撃からモデルを守るための敵の例や技法の存在について説明がされている。
この研究は、相手の強靭性に対する注意の影響の一般的な理解を目的としている。
論文 参考訳(メタデータ) (2021-09-02T13:26:32Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Attention Flows: Analyzing and Comparing Attention Mechanisms in
Language Models [5.866941279460248]
注意に基づく言語モデルにおける微調整を理解するための視覚分析手法を提案する。
私たちの視覚化であるAttention Flowsは、Transformerベースの言語モデルにおいて、レイヤ内のクエリ、トレース、関心の比較をサポートするように設計されています。
論文 参考訳(メタデータ) (2020-09-03T19:56:30Z) - Input-independent Attention Weights Are Expressive Enough: A Study of
Attention in Self-supervised Audio Transformers [55.40032342541187]
我々は、自己教師付きアルゴリズムを用いたトランスフォーマーベースモデルを事前訓練し、下流タスクにおける特徴抽出器として扱う。
このアプローチでは、トレーニングと推論の両方において、通常の自己注意と同等のパフォーマンスで20%の時間を要することが示されています。
論文 参考訳(メタデータ) (2020-06-09T10:40:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。