論文の概要: Fast Sequence Generation with Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2101.09698v1
- Date: Sun, 24 Jan 2021 12:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 07:53:24.535285
- Title: Fast Sequence Generation with Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習による高速シーケンス生成
- Authors: Longteng Guo, Jing Liu, Xinxin Zhu, Hanqing Lu
- Abstract要約: 機械翻訳では、すべての単語を並列に生成することで推論時間を高速化するノンオートレグレッシブデコードが提案されている。
我々は,非自己回帰的シーケンス生成(NAG)のための新しい訓練パラダイムを用いた簡易かつ効率的なモデルを提案する。
MSCOCOイメージキャプションベンチマークでは、NAG法は最先端のオートレグレッシブモデルに匹敵するパフォーマンスを実現し、13.9倍のデコード高速化を実現します。
- 参考スコア(独自算出の注目度): 40.75211414663022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoregressive sequence Generation models have achieved state-of-the-art
performance in areas like machine translation and image captioning. These
models are autoregressive in that they generate each word by conditioning on
previously generated words, which leads to heavy latency during inference.
Recently, non-autoregressive decoding has been proposed in machine translation
to speed up the inference time by generating all words in parallel. Typically,
these models use the word-level cross-entropy loss to optimize each word
independently. However, such a learning process fails to consider the
sentence-level consistency, thus resulting in inferior generation quality of
these non-autoregressive models. In this paper, we propose a simple and
efficient model for Non-Autoregressive sequence Generation (NAG) with a novel
training paradigm: Counterfactuals-critical Multi-Agent Learning (CMAL). CMAL
formulates NAG as a multi-agent reinforcement learning system where element
positions in the target sequence are viewed as agents that learn to
cooperatively maximize a sentence-level reward. On MSCOCO image captioning
benchmark, our NAG method achieves a performance comparable to state-of-the-art
autoregressive models, while brings 13.9x decoding speedup. On WMT14 EN-DE
machine translation dataset, our method outperforms cross-entropy trained
baseline by 6.0 BLEU points while achieves the greatest decoding speedup of
17.46x.
- Abstract(参考訳): 自動回帰シーケンス生成モデルは、機械翻訳や画像キャプションといった分野で最先端のパフォーマンスを達成した。
これらのモデルは、あらかじめ生成された単語を条件付けして各単語を生成するという自己回帰的であり、推論の遅延が重くなる。
近年,機械翻訳において,すべての単語を並列に生成することで推論時間を高速化する非自己回帰復号法が提案されている。
通常、これらのモデルは単語レベルのクロスエントロピー損失を使用して各単語を独立に最適化する。
しかし、このような学習プロセスは文レベルの一貫性を考慮せず、結果としてこれらの非自己回帰モデルの生成品質は低下する。
本稿では,非自己回帰的シーケンス生成(NAG)の簡易かつ効率的なモデルを提案する。
CMALは、ターゲットシーケンス内の要素位置を文レベルの報酬を協調的に最大化するエージェントと見なすマルチエージェント強化学習システムとしてNAGを定式化する。
MSCOCO画像キャプションベンチマークでは、NAG法は最先端の自己回帰モデルに匹敵する性能を実現し、13.9倍のデコード高速化を実現した。
WMT14 EN-DE 機械翻訳データセットでは,クロスエントロピー学習ベースラインを6.0 BLEU で上回り,最大復号速度 17.46x を達成した。
関連論文リスト
- Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - Semi-Autoregressive Image Captioning [153.9658053662605]
画像キャプションに対する現在の最先端のアプローチは、通常自己回帰的手法を採用する。
連続的反復改善による非自己回帰画像キャプションは、かなりの加速を伴う自己回帰画像キャプションに匹敵する性能が得られる。
本稿では,性能と速度のトレードオフを改善するために,SAIC(Semi-Autoregressive Image Captioning)と呼ばれる新しい2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-11T15:11:54Z) - Non-Autoregressive Image Captioning with Counterfactuals-Critical
Multi-Agent Learning [46.060954649681385]
新たな訓練パラダイムを持つ非自己回帰的画像キャプションモデル: 対実的クリティカルなマルチエージェント学習(CMAL)を提案する。
我々のNAICモデルは、最先端の自己回帰モデルに匹敵する性能を達成し、13.9倍のデコードスピードアップを実現している。
論文 参考訳(メタデータ) (2020-05-10T15:09:44Z) - Aligned Cross Entropy for Non-Autoregressive Machine Translation [120.15069387374717]
非自己回帰モデルの学習における代替的損失関数としてアライメントクロスエントロピー(AXE)を提案する。
AXEに基づく条件付きマスキング言語モデル(CMLM)のトレーニングは、主要なWMTベンチマークの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2020-04-03T16:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。