論文の概要: PsFuture: A Pseudo-Future-based Zero-Shot Adaptive Policy for Simultaneous Machine Translation
- arxiv url: http://arxiv.org/abs/2410.04075v1
- Date: Sat, 5 Oct 2024 08:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 14:20:57.461911
- Title: PsFuture: A Pseudo-Future-based Zero-Shot Adaptive Policy for Simultaneous Machine Translation
- Title(参考訳): PsFuture: 擬似未来型ゼロショット適応型機械翻訳
- Authors: Libo Zhao, Jing Li, Ziqian Zeng,
- Abstract要約: 同時機械翻訳(SiMT)では、ストリーミングソーストークンが使用されるため、ターゲットトークンをリアルタイムで生成する必要がある。
我々は、SiMTのための最初のゼロショット適応型リード/ライトポリシーであるPsFutureを提案する。
我々は、SiMTアプリケーションのためのオフライン翻訳モデルを調整するために、新しいトレーニング戦略であるPrefix-to-Full(P2F)を導入する。
- 参考スコア(独自算出の注目度): 8.1299957975257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Machine Translation (SiMT) requires target tokens to be generated in real-time as streaming source tokens are consumed. Traditional approaches to SiMT typically require sophisticated architectures and extensive parameter configurations for training adaptive read/write policies, which in turn demand considerable computational power and memory. We propose PsFuture, the first zero-shot adaptive read/write policy for SiMT, enabling the translation model to independently determine read/write actions without the necessity for additional training. Furthermore, we introduce a novel training strategy, Prefix-to-Full (P2F), specifically tailored to adjust offline translation models for SiMT applications, exploiting the advantages of the bidirectional attention mechanism inherent in offline models. Experiments across multiple benchmarks demonstrate that our zero-shot policy attains performance on par with strong baselines and the P2F method can further enhance performance, achieving an outstanding trade-off between translation quality and latency.
- Abstract(参考訳): 同時機械翻訳(SiMT)では、ストリーミングソーストークンが使用されるため、ターゲットトークンをリアルタイムで生成する必要がある。
SiMTの従来のアプローチでは、適応的な読み取り/書き込みポリシーを訓練するために高度なアーキテクチャと広範なパラメータ設定が必要であり、それによってかなりの計算能力とメモリが要求される。
PsFutureは、SiMTのための最初のゼロショット適応型リード/ライトポリシーであり、追加のトレーニングを必要とせずに、翻訳モデルで読み取り/ライト動作を独立に決定できる。
さらに, オフラインモデルに固有の双方向アテンション機構の利点を生かして, SiMT アプリケーションのオフライン翻訳モデルを調整するための新しいトレーニング戦略である Prefix-to-Full (P2F) を導入する。
複数のベンチマークでの実験では、ゼロショットポリシが強いベースラインと同等のパフォーマンスを実現し、P2Fメソッドがさらなるパフォーマンス向上を実現し、翻訳品質とレイテンシのトレードオフを際立たせることが示されています。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Self-Modifying State Modeling for Simultaneous Machine Translation [25.11963998838586]
同時機械翻訳(SiMT)は、ストリームソース入力を受信しながらターゲット出力を生成する。
既存のSiMT手法は、様々な意思決定経路を探索することでポリシーを学習し、固有の制約に直面している。
我々は、SiMTタスクのための新しいトレーニングパラダイムであるtextbfSelf-textbfModifying textbfState textbfModeling (SM$2$)を提案する。
論文 参考訳(メタデータ) (2024-06-04T11:57:58Z) - Unleashing the Power of Pre-trained Language Models for Offline
Reinforcement Learning [54.682106515794864]
オフライン強化学習(RL)は、事前コンパイルされたデータセットを使用して、ほぼ最適ポリシーを見つけることを目的としている。
本稿では、オフラインRLに事前学習言語モデル(LM)を使用するための決定変換器に基づく一般的なフレームワークである、$textbfMo$tion Control用の$textbfLanguage Models(textbfLaMo$)を紹介する。
経験的な結果から、$textbfLaMo$はスパース・リワードタスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-31T16:24:17Z) - Adaptive Policy with Wait-$k$ Model for Simultaneous Translation [20.45004823667775]
同時機械翻訳(SiMT)は、高品質な翻訳モデルとともに、堅牢な読み書きポリシーを必要とする。
従来の方法は、固定のwait-k$ポリシーとスタンドアロンのwait-k$翻訳モデル、あるいは翻訳モデルと共同で訓練された適応型ポリシーのいずれかに依存している。
本稿では、適応ポリシーモデルを翻訳モデルから切り離すことにより、より柔軟なアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:16:32Z) - Simultaneous Machine Translation with Tailored Reference [35.46823126036308]
同時機械翻訳(SiMT)は、ソース文全体を読みながら翻訳を生成する。
既存のSiMTモデルは、異なるレイテンシで利用可能な様々なソース情報を無視して、同じ参照を使用してトレーニングされるのが一般的である。
そこで本研究では,異なるレイテンシでトレーニングしたSiMTモデルに対して,基底構造をリフレッシュして参照を調整した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-20T15:32:26Z) - Glancing Future for Simultaneous Machine Translation [35.46823126036308]
本稿では,プレフィックス2トレーニングとセq2seqトレーニングのギャップを埋める新しい手法を提案する。
我々は、利用可能なソース情報を、そのレイテンシに対応するセンテンス全体からプレフィックスに徐々に削減する。
提案手法は多種多様なSiMT法に適用可能であり, 実験により本手法が強いベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-12T12:46:20Z) - LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation [6.411228564798412]
機械翻訳は、多くのライブシナリオで有用であるが、精度とレイテンシのトレードオフのため非常に難しい。
LEAPTと呼ばれる新しい適応型トレーニングポリシーを提案し、それによって機械翻訳モデルがソースプレフィックスの翻訳方法を学習し、将来の文脈を活用することができる。
論文 参考訳(メタデータ) (2023-03-21T11:17:37Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Improving Neural Machine Translation by Denoising Training [95.96569884410137]
本稿では,ニューラルネットワーク翻訳のためのトレーニングDoTの簡易かつ効果的な事前学習戦略を提案する。
モデルパラメータを、初期段階のソースおよびターゲットサイドのDenoisingタスクで更新し、正常にモデルをチューニングします。
実験によると、DoTは12のバイリンガルと16の多言語方向にわたるニューラルマシン翻訳性能を一貫して改善している。
論文 参考訳(メタデータ) (2022-01-19T00:11:38Z) - Source and Target Bidirectional Knowledge Distillation for End-to-end
Speech Translation [88.78138830698173]
外部テキストベースNMTモデルからのシーケンスレベルの知識蒸留(SeqKD)に注目した。
E2E-STモデルを訓練し、パラフレーズ転写を1つのデコーダで補助タスクとして予測する。
論文 参考訳(メタデータ) (2021-04-13T19:00:51Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。