論文の概要: LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation
- arxiv url: http://arxiv.org/abs/2303.11750v1
- Date: Tue, 21 Mar 2023 11:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 15:25:06.865320
- Title: LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation
- Title(参考訳): LEAPT: 同時機械翻訳のための適応型事前修正翻訳
- Authors: Lei Lin, Shuangtao Li, Xiaodong Shi
- Abstract要約: 機械翻訳は、多くのライブシナリオで有用であるが、精度とレイテンシのトレードオフのため非常に難しい。
LEAPTと呼ばれる新しい適応型トレーニングポリシーを提案し、それによって機械翻訳モデルがソースプレフィックスの翻訳方法を学習し、将来の文脈を活用することができる。
- 参考スコア(独自算出の注目度): 6.411228564798412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous machine translation, which aims at a real-time translation, is
useful in many live scenarios but very challenging due to the trade-off between
accuracy and latency. To achieve the balance for both, the model needs to wait
for appropriate streaming text (READ policy) and then generates its translation
(WRITE policy). However, WRITE policies of previous work either are specific to
the method itself due to the end-to-end training or suffer from the input
mismatch between training and decoding for the non-end-to-end training.
Therefore, it is essential to learn a generic and better WRITE policy for
simultaneous machine translation. Inspired by strategies utilized by human
interpreters and "wait" policies, we propose a novel adaptive prefix-to-prefix
training policy called LEAPT, which allows our machine translation model to
learn how to translate source sentence prefixes and make use of the future
context. Experiments show that our proposed methods greatly outperform
competitive baselines and achieve promising results.
- Abstract(参考訳): リアルタイム翻訳を目的とした同時機械翻訳は多くの実運用シナリオで有用であるが、精度とレイテンシのトレードオフのために非常に困難である。
両方のバランスを達成するためには、モデルは適切なストリーミングテキスト(読み込みポリシー)を待ち、その翻訳(書き込みポリシー)を生成する必要がある。
しかし、以前の作業の書き込みポリシーは、エンドツーエンドのトレーニングのためにメソッド自体に固有のものか、トレーニングと非エンドツーエンドのトレーニングのデコードの間の入力ミスマッチに苦しむもののいずれかである。
したがって、同時翻訳のための汎用的で優れたWRITEポリシーを学ぶことが不可欠である。
人間のインタプリタが利用する戦略や「待ち」ポリシーにインスパイアされた、leaptと呼ばれる新しい適応型プレフィックスからプレフィックスへのトレーニングポリシーを提案する。
実験の結果,提案手法は競争ベースラインを大きく上回り,有望な結果を得た。
関連論文リスト
- PsFuture: A Pseudo-Future-based Zero-Shot Adaptive Policy for Simultaneous Machine Translation [8.1299957975257]
同時機械翻訳(SiMT)では、ストリーミングソーストークンが使用されるため、ターゲットトークンをリアルタイムで生成する必要がある。
我々は、SiMTのための最初のゼロショット適応型リード/ライトポリシーであるPsFutureを提案する。
我々は、SiMTアプリケーションのためのオフライン翻訳モデルを調整するために、新しいトレーニング戦略であるPrefix-to-Full(P2F)を導入する。
論文 参考訳(メタデータ) (2024-10-05T08:06:33Z) - Language Model is a Branch Predictor for Simultaneous Machine
Translation [73.82754138171587]
翻訳遅延を低減するため,SiMTタスクに分岐予測手法を組み込むことを提案する。
言語モデルを分岐予測器として利用し,潜在的な分岐方向を予測する。
実際のソース語が予測されたソース語から逸脱すると、実際のソース語を使用して出力を復号し、予測された出力を置き換える。
論文 参考訳(メタデータ) (2023-12-22T07:32:47Z) - Glancing Future for Simultaneous Machine Translation [35.46823126036308]
本稿では,プレフィックス2トレーニングとセq2seqトレーニングのギャップを埋める新しい手法を提案する。
我々は、利用可能なソース情報を、そのレイテンシに対応するセンテンス全体からプレフィックスに徐々に削減する。
提案手法は多種多様なSiMT法に適用可能であり, 実験により本手法が強いベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-12T12:46:20Z) - Learning Optimal Policy for Simultaneous Machine Translation via Binary
Search [17.802607889752736]
同時機械翻訳(SiMT)は、原文を読みながら翻訳を出力し始める。
ポリシーは、各ターゲットトークンの翻訳中に読み込まれるソーストークンの数を決定する。
本稿では,二分探索により最適ポリシーをオンラインで構築する手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T07:03:06Z) - M-Adapter: Modality Adaptation for End-to-End Speech-to-Text Translation [66.92823764664206]
テキストに音声表現を適応させる新しいトランスフォーマーベースのモジュールであるM-Adapterを提案する。
音声シーケンスを縮小しながら、M-Adapterは音声からテキストへの翻訳に必要な機能を生成する。
実験の結果,我々のモデルは最大1BLEUで強いベースラインを達成できた。
論文 参考訳(メタデータ) (2022-07-03T04:26:53Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Future-Guided Incremental Transformer for Simultaneous Translation [6.8452940299620435]
同時翻訳(st)は、ソース文を読みながら同期的に開始され、多くのオンラインシナリオで使用される。
wait-kポリシーは、隠れた状態の再計算によるトレーニング速度の低下と、トレーニングを導くための将来のソース情報の欠如という2つの弱点に直面しています。
平均埋め込み層(AEL)を有するインクリメンタルトランスフォーマを提案し,隠れ状態の計算速度を高速化する。
論文 参考訳(メタデータ) (2020-12-23T03:04:49Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Learning Coupled Policies for Simultaneous Machine Translation using
Imitation Learning [85.70547744787]
本稿では,プログラマ-解釈ポリシーを併用した同時翻訳モデルを効率よく学習する手法を提案する。
6つの言語対の実験により,翻訳品質の点で,本手法は高いベースラインを達成できた。
論文 参考訳(メタデータ) (2020-02-11T10:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。