論文の概要: An EM Approach to Non-autoregressive Conditional Sequence Generation
- arxiv url: http://arxiv.org/abs/2006.16378v1
- Date: Mon, 29 Jun 2020 20:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:09:56.962659
- Title: An EM Approach to Non-autoregressive Conditional Sequence Generation
- Title(参考訳): 非自己回帰条件列生成へのemアプローチ
- Authors: Zhiqing Sun, Yiming Yang
- Abstract要約: 自己回帰(AR)モデルは条件付きシーケンス生成において支配的なアプローチである。
非自己回帰(NAR)モデルは、最近、すべての出力トークンを並列に生成することでレイテンシを低減するために提案されている。
本稿では,ARモデルとNARモデルの両方を統合期待最大化フレームワークで協調的に最適化する手法を提案する。
- 参考スコア(独自算出の注目度): 49.11858479436565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoregressive (AR) models have been the dominating approach to conditional
sequence generation, but are suffering from the issue of high inference
latency. Non-autoregressive (NAR) models have been recently proposed to reduce
the latency by generating all output tokens in parallel but could only achieve
inferior accuracy compared to their autoregressive counterparts, primarily due
to a difficulty in dealing with the multi-modality in sequence generation. This
paper proposes a new approach that jointly optimizes both AR and NAR models in
a unified Expectation-Maximization (EM) framework. In the E-step, an AR model
learns to approximate the regularized posterior of the NAR model. In the
M-step, the NAR model is updated on the new posterior and selects the training
examples for the next AR model. This iterative process can effectively guide
the system to remove the multi-modality in the output sequences. To our
knowledge, this is the first EM approach to NAR sequence generation. We
evaluate our method on the task of machine translation. Experimental results on
benchmark data sets show that the proposed approach achieves competitive, if
not better, performance with existing NAR models and significantly reduces the
inference latency.
- Abstract(参考訳): オートレグレッシブ(ar)モデルは条件付きシーケンス生成において優位なアプローチだが、高い推論遅延の問題に苦しんでいる。
非自己回帰モデル(NAR)は、最近、全ての出力トークンを並列に生成することでレイテンシを低減するために提案されているが、主にシーケンス生成におけるマルチモーダリティの扱いが困難であるために、自己回帰モデルよりも低い精度しか達成できない。
本稿では,ARモデルとNARモデルの両方を統合期待最大化(EM)フレームワークで協調的に最適化する手法を提案する。
Eステップでは、ARモデルは、NARモデルの正規化後部を近似することを学ぶ。
mステップでは、narモデルが新しい後方で更新され、次のarモデルのトレーニング例を選択する。
この反復プロセスは、システムが出力シーケンスのマルチモダリティを取り除くのを効果的に導くことができる。
我々の知る限り、これはNARシーケンス生成に対する最初のEMアプローチである。
本手法を機械翻訳の課題として評価する。
ベンチマークデータセットを用いた実験結果から,提案手法は既存のNARモデルとの競合性を向上し,推論遅延を大幅に低減することが示された。
関連論文リスト
- SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - TSNAT: Two-Step Non-Autoregressvie Transformer Models for Speech
Recognition [69.68154370877615]
非自己回帰(NAR)モデルは、出力トークン間の時間的依存関係を排除し、少なくとも1ステップで出力トークン全体を予測することができる。
この2つの問題に対処するため,TSNATと呼ばれる新しいモデルを提案する。
以上の結果から,TSNATはARモデルと競合する性能を示し,複雑なNARモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-04T02:34:55Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。