論文の概要: Data-Driven Adaptive Simultaneous Machine Translation
- arxiv url: http://arxiv.org/abs/2204.12672v1
- Date: Wed, 27 Apr 2022 02:40:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:00:40.918756
- Title: Data-Driven Adaptive Simultaneous Machine Translation
- Title(参考訳): データ駆動適応同時機械翻訳
- Authors: Guangxu Xun, Mingbo Ma, Yuchen Bian, Xingyu Cai, Jiaji Huang, Renjie
Zheng, Junkun Chen, Jiahong Yuan, Kenneth Church, Liang Huang
- Abstract要約: 適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
- 参考スコア(独自算出の注目度): 51.01779863078624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In simultaneous translation (SimulMT), the most widely used strategy is the
wait-k policy thanks to its simplicity and effectiveness in balancing
translation quality and latency. However, wait-k suffers from two major
limitations: (a) it is a fixed policy that can not adaptively adjust latency
given context, and (b) its training is much slower than full-sentence
translation. To alleviate these issues, we propose a novel and efficient
training scheme for adaptive SimulMT by augmenting the training corpus with
adaptive prefix-to-prefix pairs, while the training complexity remains the same
as that of training full-sentence translation models. Experiments on two
language pairs show that our method outperforms all strong baselines in terms
of translation quality and latency.
- Abstract(参考訳): 同時翻訳(simulmt)では、翻訳品質とレイテンシのバランスをとるためのシンプルさと有効性のおかげで、最も広く使われている戦略がwait-kポリシーである。
しかし、wait-kには2つの大きな制限がある。
(a)状況に応じて遅延を適応的に調整できない固定ポリシーであり、
(b)フルセンテンス翻訳よりもはるかに遅い。
これらの問題を緩和するために,適応プレフィックスとプレフィックスのペアでトレーニングコーパスを増強することにより,適応型SimulMTの新規かつ効率的なトレーニング手法を提案する。
2つの言語対の実験により、我々の手法は翻訳品質とレイテンシの点で、全ての強力なベースラインを上回ります。
関連論文リスト
- Fixed and Adaptive Simultaneous Machine Translation Strategies Using Adapters [5.312303275762104]
機械翻訳は、全入力を消費する前に翻訳を開始することで、リアルタイム翻訳の課題を解決することを目的としている。
wait-$k$ポリシーは、$k$ワードを消費した後、翻訳を開始することでソリューションを提供する。
本稿では,複数のレイテンシレベルを満たす1つのモデルを構築するという課題に対処する。
論文 参考訳(メタデータ) (2024-07-18T12:42:45Z) - LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation [6.411228564798412]
機械翻訳は、多くのライブシナリオで有用であるが、精度とレイテンシのトレードオフのため非常に難しい。
LEAPTと呼ばれる新しい適応型トレーニングポリシーを提案し、それによって機械翻訳モデルがソースプレフィックスの翻訳方法を学習し、将来の文脈を活用することができる。
論文 参考訳(メタデータ) (2023-03-21T11:17:37Z) - Non-Parametric Domain Adaptation for End-to-End Speech Translation [72.37869362559212]
E2E-ST(End-to-End Speech Translation)は、エラー伝播の低減、レイテンシの低減、パラメータの削減などにより注目されている。
本稿では,E2E-STシステムのドメイン適応を実現するために,ドメイン固有のテキスト翻訳コーパスを活用する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T11:41:02Z) - Exploring Continuous Integrate-and-Fire for Adaptive Simultaneous Speech
Translation [75.86581380817464]
SimulSTシステムは通常、音声情報を集約する事前決定と、読み書きを決定するポリシーの2つのコンポーネントを含む。
本稿では,CIF(Continuous Integrate-and-Fire)を適用して適応政策をモデル化することを提案する。
単調なマルチヘッドアテンション (MMA) と比較して,本手法はより単純な計算,低レイテンシにおける品質,長い発話の一般化に優れる。
論文 参考訳(メタデータ) (2022-03-22T23:33:18Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - Future-Guided Incremental Transformer for Simultaneous Translation [6.8452940299620435]
同時翻訳(st)は、ソース文を読みながら同期的に開始され、多くのオンラインシナリオで使用される。
wait-kポリシーは、隠れた状態の再計算によるトレーニング速度の低下と、トレーニングを導くための将来のソース情報の欠如という2つの弱点に直面しています。
平均埋め込み層(AEL)を有するインクリメンタルトランスフォーマを提案し,隠れ状態の計算速度を高速化する。
論文 参考訳(メタデータ) (2020-12-23T03:04:49Z) - Simultaneous Translation Policies: From Fixed to Adaptive [29.699912674525056]
我々は,一組の固定ポリシーの簡単な構成で適応ポリシーを実現するアルゴリズムを設計する。
我々のアルゴリズムは、同じレイテンシで最大4つのBLEUポイントを上回ります。
グレディモードでは、BLEUのフル文翻訳のスコアを上回ります。
論文 参考訳(メタデータ) (2020-04-27T20:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。