論文の概要: Non-Autoregressive Neural Machine Translation: A Call for Clarity
- arxiv url: http://arxiv.org/abs/2205.10577v1
- Date: Sat, 21 May 2022 12:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:10:34.708550
- Title: Non-Autoregressive Neural Machine Translation: A Call for Clarity
- Title(参考訳): 非自己回帰型ニューラルマシン翻訳:明快さを求める声
- Authors: Robin M. Schmidt, Telmo Pires, Stephan Peitz, Jonas L\"o\"of
- Abstract要約: 我々は、非自己回帰的翻訳モデルを改善するために提案されたいくつかの手法を再検討する。
我々は,長文予測やCTCに基づくアーキテクチャ変種を用いて,強力なベースラインを確立するための新たな洞察を提供する。
4つの翻訳タスクに対してsareBLEUを用いて,標準化されたBLEU,chrF++,TERスコアをコントリビュートする。
- 参考スコア(独自算出の注目度): 3.1447111126465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-autoregressive approaches aim to improve the inference speed of
translation models by only requiring a single forward pass to generate the
output sequence instead of iteratively producing each predicted token.
Consequently, their translation quality still tends to be inferior to their
autoregressive counterparts due to several issues involving output token
interdependence. In this work, we take a step back and revisit several
techniques that have been proposed for improving non-autoregressive translation
models and compare their combined translation quality and speed implications
under third-party testing environments. We provide novel insights for
establishing strong baselines using length prediction or CTC-based architecture
variants and contribute standardized BLEU, chrF++, and TER scores using
sacreBLEU on four translation tasks, which crucially have been missing as
inconsistencies in the use of tokenized BLEU lead to deviations of up to 1.7
BLEU points. Our open-sourced code is integrated into fairseq for
reproducibility.
- Abstract(参考訳): 非自己回帰的アプローチは、予測されたトークンを反復的に生成するのではなく、単一のフォワードパスで出力シーケンスを生成するだけで、翻訳モデルの推論速度を改善することを目的としている。
その結果、その翻訳品質は、出力トークン相互依存性に関わるいくつかの問題により、自己回帰性に劣る傾向にある。
本稿では,非自己回帰的翻訳モデルを改善するために提案されているいくつかの手法を振り返り,それらの組み合わせた翻訳品質と速度への影響をサードパーティのテスト環境下で比較する。
我々は,長長予測やCTCに基づくアーキテクチャ変種を用いた強力なベースラインを確立するための新たな洞察を提供し,最大1.7 BLEU点のずれにつながるトークン化BLEUの使用において,矛盾として欠落している4つの翻訳タスクに対して,SsareBLEUを用いた標準化BLEU,chrF++,TERスコアを貢献する。
オープンソースコードは再現性のために Fairseq に統合されています。
関連論文リスト
- CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - Verdi: Quality Estimation and Error Detection for Bilingual [23.485380293716272]
Verdiはバイリンガルコーパスのための単語レベルおよび文レベルの後編集作業推定のための新しいフレームワークである。
バイリンガルコーパスの対称性を活用し,NMT予測器にモデルレベル二重学習を適用した。
我々の手法は競争の勝者を圧倒し、他の基準法よりも大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-05-31T11:04:13Z) - Modeling Coverage for Non-Autoregressive Neural Machine Translation [9.173385214565451]
本稿では,トークンレベルのカバレッジ反復改良機構と文レベルのカバレッジ契約により,カバレッジ情報を直接モデル化するための新しいカバレッジNATを提案する。
WMT14 En-De および WMT16 En-Ro 翻訳タスクの実験結果から,本手法はこれらの誤りを軽減し,ベースラインシステムに対して強い改善が達成できることが示された。
論文 参考訳(メタデータ) (2021-04-24T07:33:23Z) - Non-Autoregressive Translation by Learning Target Categorical Codes [59.840510037250944]
本論文では,非回帰型復号法に潜在変数として暗黙的に分類符号を学習するCNATを提案する。
実験の結果,本モデルは機械翻訳タスクにおいて同等あるいは優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-03-21T14:12:34Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。