論文の概要: Non-Autoregressive Document-Level Machine Translation (NA-DMT):
Exploring Effective Approaches, Challenges, and Opportunities
- arxiv url: http://arxiv.org/abs/2305.12878v1
- Date: Mon, 22 May 2023 09:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:01:16.320228
- Title: Non-Autoregressive Document-Level Machine Translation (NA-DMT):
Exploring Effective Approaches, Challenges, and Opportunities
- Title(参考訳): 非自己回帰型文書レベル機械翻訳(NA-DMT):効果的なアプローチ、課題、機会を探る
- Authors: Guangsheng Bao, Zhiyang Teng, Yue Zhang
- Abstract要約: 非自己回帰翻訳(NAT)モデルは、文レベル機械翻訳(MT)タスクの文脈において広く研究されている。
しかし、入力長と出力長を増大させると、NATモデル内のマルチモーダリティやアライメント問題にまつわる課題がより顕著になる。
非自己回帰型文書レベル機械翻訳(NA-DMT)における文レベルのアライメントの重要性を浮き彫りにした新しい設計を提案する。
- 参考スコア(独自算出の注目度): 15.81037035729968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-autoregressive translation (NAT) models have been extensively
investigated within the context of sentence-level machine translation (MT)
tasks, demonstrating comparable quality and superior translation speed when
contrasted with autoregressive translation (AT) models. However, the challenges
associated with multi-modality and alignment issues within NAT models become
more prominent when increasing input and output length, leading to unexpected
complications in document-level MT. In this paper, we conduct a comprehensive
examination of typical NAT models in the context of document-level MT tasks.
Experiments reveal that, although NAT models significantly accelerate text
generation on documents, they do not perform as effectively as on sentences. To
bridge this performance gap, we introduce a novel design that underscores the
importance of sentence-level alignment for non-autoregressive document-level
machine translation (NA-DMT). This innovation substantially reduces the
performance discrepancy. However, it is worth noting that NA-DMT models are
still far from perfect and may necessitate additional research to fully
optimize their performance. We delve into the related opportunities and
challenges and provide our code at https://github.com/baoguangsheng/nat-on-doc
to stimulate further research in this field.
- Abstract(参考訳): 非自己回帰翻訳(NAT)モデルは、文レベル機械翻訳(MT)タスクの文脈において広く研究されており、自己回帰翻訳(AT)モデルと対比すると、同等の品質と優れた翻訳速度を示す。
しかし,NATモデルにおける多モード性やアライメントの問題は,入力長と出力長の増大に伴って顕著になり,文書レベルのMTでは予期せぬ複雑化が生じ,文書レベルのMTタスクの文脈において,典型的なNATモデルの総合的な検証を行う。
実験の結果、NATモデルは文書のテキスト生成を著しく加速するが、文ほど効果的に処理しないことがわかった。
この性能のギャップを埋めるために,非自己回帰的文書レベル機械翻訳(na-dmt)における文レベルのアライメントの重要性を強調する新しい設計を提案する。
このイノベーションはパフォーマンスの差を大幅に減らします。
しかし、NA-DMTモデルはまだ完璧には程遠いため、性能を完全に最適化するにはさらなる研究が必要であることに注意する必要がある。
関連する機会と課題を調べ、https://github.com/baoguangsheng/nat-on-docでコードを提供し、この分野のさらなる研究を刺激します。
関連論文リスト
- Revisiting Non-Autoregressive Translation at Scale [76.93869248715664]
スケーリングが非自己回帰翻訳(NAT)行動に与える影響を系統的に研究する。
我々は、NATモデルの一般的な弱さを緩和し、結果として翻訳性能が向上することを示した。
我々は、スケールされたデータセット上でスケールされたNATモデルを検証することで、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2023-05-25T15:22:47Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - Candidate Soups: Fusing Candidate Results Improves Translation Quality
for Non-Autoregressive Translation [15.332496335303189]
非自己回帰翻訳(NAT)モデルは、自己回帰翻訳(AT)モデルよりもはるかに高速な推論速度を達成する。
既存のNATメソッドはNATモデルの性能改善にのみフォーカスするが、完全には利用しない。
そこで我々は,高品質な翻訳を実現するための,シンプルだが効果的な手法"Candidate Soups"を提案する。
論文 参考訳(メタデータ) (2023-01-27T02:39:42Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z) - Modeling Coverage for Non-Autoregressive Neural Machine Translation [9.173385214565451]
本稿では,トークンレベルのカバレッジ反復改良機構と文レベルのカバレッジ契約により,カバレッジ情報を直接モデル化するための新しいカバレッジNATを提案する。
WMT14 En-De および WMT16 En-Ro 翻訳タスクの実験結果から,本手法はこれらの誤りを軽減し,ベースラインシステムに対して強い改善が達成できることが示された。
論文 参考訳(メタデータ) (2021-04-24T07:33:23Z) - Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine
Translation [32.77372312124259]
非自己回帰機械翻訳(NAT)モデルでは推論速度が著しく向上しているが、翻訳精度は劣っている。
本稿では,自動回帰機械翻訳の知識をエンコーダの共有を通じてNATモデルに伝達するマルチタスク学習を提案する。
WMT14英語-ドイツ語とWMT16英語-ルーマニアのデータセットの実験結果は、提案されたマルチタスクNATがベースラインNATモデルよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2020-10-24T11:00:58Z) - Task-Level Curriculum Learning for Non-Autoregressive Neural Machine
Translation [188.3605563567253]
非自己回帰翻訳(NAT)は高速な推論速度を実現するが、自己回帰翻訳(AT)と比較して精度が悪くなる
本稿では、中間タスクとして半自己回帰翻訳(SAT)を導入し、ATとNATを特殊なケースとして扱う。
我々は、k を 1 から N に段階的にシフトさせるカリキュラムスケジュールを設計する。
IWSLT14 De-En, IWSLT16 En-De, WMT14 En-De, De-Enデータセットの実験により、TCL-NATは以前のNATベースラインよりも大幅に精度が向上したことが示された。
論文 参考訳(メタデータ) (2020-07-17T06:06:54Z) - LAVA NAT: A Non-Autoregressive Translation Model with Look-Around
Decoding and Vocabulary Attention [54.18121922040521]
非自己回帰翻訳(NAT)モデルは、1つの前方通過で複数のトークンを生成する。
これらのNATモデルは、しばしば多重性の問題に悩まされ、重複トークンや欠落トークンを生成する。
本稿では,この問題を解決するための新しい方法として,Look-Around(LA)戦略とVocabulary Attention(VA)メカニズムを提案する。
論文 参考訳(メタデータ) (2020-02-08T04:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。