論文の概要: Anticipation-free Training for Simultaneous Translation
- arxiv url: http://arxiv.org/abs/2201.12868v1
- Date: Sun, 30 Jan 2022 16:29:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:26:59.354406
- Title: Anticipation-free Training for Simultaneous Translation
- Title(参考訳): 同時翻訳のための予測なし学習
- Authors: Chih-Chiang Chang, Shun-Po Chuang, Hung-yi Lee
- Abstract要約: 同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 70.85761141178597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous translation (SimulMT) speeds up the translation process by
starting to translate before the source sentence is completely available. It is
difficult due to limited context and word order difference between languages.
Existing methods increase latency or introduce adaptive read-write policies for
SimulMT models to handle local reordering and improve translation quality.
However, the long-distance reordering would make the SimulMT models learn
translation mistakenly. Specifically, the model may be forced to predict target
tokens when the corresponding source tokens have not been read. This leads to
aggressive anticipation during inference, resulting in the hallucination
phenomenon. To mitigate this problem, we propose a new framework that decompose
the translation process into the monotonic translation step and the reordering
step, and we model the latter by the auxiliary sorting network (ASN). The ASN
rearranges the hidden states to match the order in the target language, so that
the SimulMT model could learn to translate more reasonably. The entire model is
optimized end-to-end and does not rely on external aligners or data. During
inference, ASN is removed to achieve streaming. Experiments show the proposed
framework could outperform previous methods with less latency.\footnote{The
source code is available.
- Abstract(参考訳): 同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
言語間の文脈や語順の違いが限られているため、難しい。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
しかし、長距離の再注文により、SimulMTモデルは誤って翻訳を学習する。
具体的には、対応するソーストークンが読まれていない場合には、ターゲットトークンを予測せざるを得ない。
これは推論中に積極的な予測をもたらし、幻覚現象を引き起こす。
この問題を軽減するため,我々は翻訳プロセスを単調翻訳ステップと再順序付けステップに分解する新しい枠組みを提案し,後者を補助ソートネットワーク(asn)でモデル化する。
ASNは、ターゲット言語の順序に合うように隠された状態を再構成するので、SimulMTモデルはより合理的に翻訳することを学ぶことができる。
モデル全体がエンドツーエンドに最適化されており、外部のアライメントやデータに依存しない。
推論中、ASNはストリーミングを達成するために削除される。
実験により、提案フレームワークは、レイテンシを少なくして、以前のメソッドを上回ることができることを示した。
ソースコードは利用可能である。
関連論文リスト
- ACT-MNMT Auto-Constriction Turning for Multilingual Neural Machine
Translation [38.30649186517611]
この課題はtextbfunderlineAuto-textbfunderlineConstriction textbfunderlineTurning mechanism for textbfunderlineMultilingual textbfunderlineNeural textbfunderlineMachine textbfunderlineTranslation (model)を導入している。
論文 参考訳(メタデータ) (2024-03-11T14:10:57Z) - Language Model is a Branch Predictor for Simultaneous Machine
Translation [73.82754138171587]
翻訳遅延を低減するため,SiMTタスクに分岐予測手法を組み込むことを提案する。
言語モデルを分岐予測器として利用し,潜在的な分岐方向を予測する。
実際のソース語が予測されたソース語から逸脱すると、実際のソース語を使用して出力を復号し、予測された出力を置き換える。
論文 参考訳(メタデータ) (2023-12-22T07:32:47Z) - CBSiMT: Mitigating Hallucination in Simultaneous Machine Translation
with Weighted Prefix-to-Prefix Training [13.462260072313894]
同時機械翻訳(SiMT)は、全文が利用可能になる前に翻訳を開始することを必要とする課題である。
Prefix-to-フレームワークはSiMTに適用されることが多く、部分的なソースプレフィックスのみを使用してターゲットトークンを予測することを学ぶ。
本稿では,モデル信頼を利用して幻覚トークンを知覚する信頼に基づく同時機械翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T02:44:45Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Faster Re-translation Using Non-Autoregressive Model For Simultaneous
Neural Machine Translation [10.773010211146694]
非回帰的シーケンス生成モデル(FReTNA)に基づく高速再翻訳システムを提案する。
提案モデルでは,ReTAモデルと比較して平均計算時間を20倍に削減する。
また、ストリーミングベースのwait-kモデルよりも時間(1.5倍)と翻訳品質の両方で優れている。
論文 参考訳(メタデータ) (2020-12-29T09:43:27Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。