論文の概要: Task-Level Curriculum Learning for Non-Autoregressive Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2007.08772v1
- Date: Fri, 17 Jul 2020 06:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:04:11.157902
- Title: Task-Level Curriculum Learning for Non-Autoregressive Neural Machine
Translation
- Title(参考訳): 非自律型ニューラルネットワーク翻訳のためのタスクレベルカリキュラム学習
- Authors: Jinglin Liu, Yi Ren, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, Tie-Yan
Liu
- Abstract要約: 非自己回帰翻訳(NAT)は高速な推論速度を実現するが、自己回帰翻訳(AT)と比較して精度が悪くなる
本稿では、中間タスクとして半自己回帰翻訳(SAT)を導入し、ATとNATを特殊なケースとして扱う。
我々は、k を 1 から N に段階的にシフトさせるカリキュラムスケジュールを設計する。
IWSLT14 De-En, IWSLT16 En-De, WMT14 En-De, De-Enデータセットの実験により、TCL-NATは以前のNATベースラインよりも大幅に精度が向上したことが示された。
- 参考スコア(独自算出の注目度): 188.3605563567253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-autoregressive translation (NAT) achieves faster inference speed but at
the cost of worse accuracy compared with autoregressive translation (AT). Since
AT and NAT can share model structure and AT is an easier task than NAT due to
the explicit dependency on previous target-side tokens, a natural idea is to
gradually shift the model training from the easier AT task to the harder NAT
task. To smooth the shift from AT training to NAT training, in this paper, we
introduce semi-autoregressive translation (SAT) as intermediate tasks. SAT
contains a hyperparameter k, and each k value defines a SAT task with different
degrees of parallelism. Specially, SAT covers AT and NAT as its special cases:
it reduces to AT when k = 1 and to NAT when k = N (N is the length of target
sentence). We design curriculum schedules to gradually shift k from 1 to N,
with different pacing functions and number of tasks trained at the same time.
We called our method as task-level curriculum learning for NAT (TCL-NAT).
Experiments on IWSLT14 De-En, IWSLT16 En-De, WMT14 En-De and De-En datasets
show that TCL-NAT achieves significant accuracy improvements over previous NAT
baselines and reduces the performance gap between NAT and AT models to 1-2 BLEU
points, demonstrating the effectiveness of our proposed method.
- Abstract(参考訳): 非自己回帰翻訳(NAT)は高速な推論速度を実現するが、自己回帰翻訳(AT)と比較して精度が悪くなる。
ATとNATはモデル構造を共有することができ、ATは従来のターゲット側のトークンへの明示的な依存のためNATよりも容易なタスクであるため、自然な考え方は、モデルのトレーニングをより簡単なATタスクからより難しいNATタスクに徐々にシフトさせることである。
本稿では,ATトレーニングからNATトレーニングへの移行を円滑にするために,半自己回帰翻訳(SAT)を中間課題として紹介する。
SAT はハイパーパラメータ k を含み、各 k 値は異なる並列性を持つSAT タスクを定義する。
特に、SATは特別な場合としてATとNATをカバーし、k = 1 のとき AT に、k = N のとき NAT に還元する(N はターゲット文の長さ)。
我々は、k を 1 から n に徐々にシフトするようにカリキュラムスケジュールを設計し、異なるペーシング関数とタスク数を同時に訓練する。
我々は,本手法をNAT(TCL-NAT)のタスクレベルカリキュラム学習と呼んでいる。
iwslt14 de-en, iwslt16 en-de, wmt14 en-deおよびde-enデータセットの実験では、tcl-natが以前のnatベースラインよりも大幅に精度が向上し、natとatモデルの性能ギャップが1-2 bleuポイントに低減され、提案手法の有効性が実証された。
関連論文リスト
- Revisiting Non-Autoregressive Translation at Scale [76.93869248715664]
スケーリングが非自己回帰翻訳(NAT)行動に与える影響を系統的に研究する。
我々は、NATモデルの一般的な弱さを緩和し、結果として翻訳性能が向上することを示した。
我々は、スケールされたデータセット上でスケールされたNATモデルを検証することで、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2023-05-25T15:22:47Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - RenewNAT: Renewing Potential Translation for Non-Autoregressive
Transformer [15.616188012177538]
非自己回帰型ニューラルネットワーク翻訳(NAT)モデルは、比較的高い性能を維持しつつ、推論プロセスを加速するために提案される。
既存のNATモデルは、望ましい効率品質のトレードオフを達成するのは難しい。
高い効率と効率性を持つフレキシブルなフレームワークであるRenewNATを提案する。
論文 参考訳(メタデータ) (2023-03-14T07:10:03Z) - N-Gram Nearest Neighbor Machine Translation [101.25243884801183]
本稿では, 自己回帰翻訳(AT)モデルと非自己回帰翻訳(NAT)モデルの両方に適用可能な, モデルに依存しない新しいn$-gram近傍検索手法を提案する。
提案手法は,ATモデルおよびNATモデルおよび一般のドメイン適応翻訳タスクにおいて,トークンレベル法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2023-01-30T13:19:19Z) - Rephrasing the Reference for Non-Autoregressive Machine Translation [37.816198073720614]
非自己回帰型ニューラルマシン翻訳(NAT)モデルは、ソース文の複数の可能な翻訳が存在する可能性があるというマルチモーダリティの問題に悩まされる。
我々は、NAT出力に従って参照文をリフレッシュすることで、NATのためのより良いトレーニングターゲットを提供するためのリフレッサーを導入する。
我々の最良の変種は、推論の14.7倍の効率で、自動回帰変換器に匹敵する性能を実現しています。
論文 参考訳(メタデータ) (2022-11-30T10:05:03Z) - Sequence-Level Training for Non-Autoregressive Neural Machine
Translation [33.17341980163439]
非自己回帰ニューラルネットワーク変換(NAT)は自己回帰機構を取り除き、大幅なデコード高速化を実現する。
本研究では,NATの出力を全体として評価し,実際の翻訳品質とよく相関するNATモデルをトレーニングするためのシーケンスレベルのトレーニング目標を提案する。
論文 参考訳(メタデータ) (2021-06-15T13:30:09Z) - Progressive Multi-Granularity Training for Non-Autoregressive
Translation [98.11249019844281]
非自己回帰翻訳(NAT)は、ターゲットシーケンス全体を予測することで推論プロセスを著しく加速する。
近年の研究では、NATは1対多翻訳のような高度な知識の学習に弱いことが示されている。
モードは様々な粒度に分けることができ、そこから容易に学習できると我々は主張する。
論文 参考訳(メタデータ) (2021-06-10T07:16:07Z) - Fully Non-autoregressive Neural Machine Translation: Tricks of the Trade [47.97977478431973]
NAT(Fullly non-autoregressive neural Machine Translation)は、ニューラルネットワークのシングルフォワードでトークンを同時に予測する手法である。
この作業では、レイテンシのアドバンテージを維持しながら、パフォーマンスのギャップを縮めることを目標としています。
論文 参考訳(メタデータ) (2020-12-31T18:52:59Z) - Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine
Translation [32.77372312124259]
非自己回帰機械翻訳(NAT)モデルでは推論速度が著しく向上しているが、翻訳精度は劣っている。
本稿では,自動回帰機械翻訳の知識をエンコーダの共有を通じてNATモデルに伝達するマルチタスク学習を提案する。
WMT14英語-ドイツ語とWMT16英語-ルーマニアのデータセットの実験結果は、提案されたマルチタスクNATがベースラインNATモデルよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2020-10-24T11:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。