論文の概要: Non-Autoregressive Translation by Learning Target Categorical Codes
- arxiv url: http://arxiv.org/abs/2103.11405v1
- Date: Sun, 21 Mar 2021 14:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 15:01:14.176536
- Title: Non-Autoregressive Translation by Learning Target Categorical Codes
- Title(参考訳): 対象分類コード学習による非自己回帰翻訳
- Authors: Yu Bao, Shujian Huang, Tong Xiao, Dongqi Wang, Xinyu Dai, Jiajun Chen
- Abstract要約: 本論文では,非回帰型復号法に潜在変数として暗黙的に分類符号を学習するCNATを提案する。
実験の結果,本モデルは機械翻訳タスクにおいて同等あるいは優れた性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 59.840510037250944
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Non-autoregressive Transformer is a promising text generation model. However,
current non-autoregressive models still fall behind their autoregressive
counterparts in translation quality. We attribute this accuracy gap to the lack
of dependency modeling among decoder inputs. In this paper, we propose CNAT,
which learns implicitly categorical codes as latent variables into the
non-autoregressive decoding. The interaction among these categorical codes
remedies the missing dependencies and improves the model capacity. Experiment
results show that our model achieves comparable or better performance in
machine translation tasks, compared with several strong baselines.
- Abstract(参考訳): Non-autoregressive Transformerは有望なテキスト生成モデルである。
しかし、現在の非自己回帰モデルは、翻訳品質において自己回帰モデルに遅れを取っている。
この精度のギャップはデコーダ入力間の依存性モデリングの欠如に起因する。
本稿では,非自己回帰復号に潜在変数として暗黙的にカテゴリコードを学ぶcnatを提案する。
これらの分類コード間の相互作用は、欠落した依存関係を修復し、モデルのキャパシティを改善する。
実験結果から,本モデルは機械翻訳作業において,いくつかの強いベースラインと比較して,同等あるいは優れた性能を達成できることがわかった。
関連論文リスト
- Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Exploring Automatic Evaluation Methods based on a Decoder-based LLM for
Text Generation [16.78350863261211]
本稿では,エンコーダモデルを用いたチューニングや,同じ条件下での大規模言語モデルなど,様々な手法を比較する。
実験結果から, 調律エンコーダモデルと比較すると, 調律デコーダモデルの性能は低かった。
また、ChatGPTのような非常に大きなデコーダベースのモデルのコンテキスト内学習は、きめ細かいセマンティックな違いを識別することが困難であることも明らかにした。
論文 参考訳(メタデータ) (2023-10-17T06:53:00Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - Deep Encoder, Shallow Decoder: Reevaluating Non-autoregressive Machine
Translation [78.51887060865273]
単層自己回帰デコーダは、推論速度に匹敵する強い非自己回帰モデルよりも大幅に優れていることを示す。
本研究は,高速かつ高精度な機械翻訳研究のための新しいプロトコルを構築した。
論文 参考訳(メタデータ) (2020-06-18T09:06:49Z) - Cascaded Text Generation with Markov Transformers [122.76100449018061]
ニューラルテキスト生成における2つの主要なアプローチは、シリアルビームサーチデコーディングを使用した完全自己回帰モデルと、出力依存のない並列デコーディングを使用した非自己回帰モデルである。
本稿では,境界付きコンテキストを持つ条件付きランダムフィールドを並列にデコードできることに言及し,高品質な出力を生成するための効率的なカスケードデコード手法を提案する。
このアプローチでは,5つの機械翻訳データセットの既存の手法と比較して,競争力のある精度と速度のトレードオフを示す一方で,標準的な自己回帰トレーニングからのわずかな変更しか必要としない。
論文 参考訳(メタデータ) (2020-06-01T17:52:15Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。