論文の概要: Anticipating Future with Large Language Model for Simultaneous Machine Translation
- arxiv url: http://arxiv.org/abs/2410.22499v1
- Date: Tue, 29 Oct 2024 19:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:19.633909
- Title: Anticipating Future with Large Language Model for Simultaneous Machine Translation
- Title(参考訳): 機械翻訳における大規模言語モデルによる未来予測
- Authors: Siqi Ouyang, Oleksii Hrinchuk, Zhehuai Chen, Vitaly Lavrukhin, Jagadeesh Balam, Lei Li, Boris Ginsburg,
- Abstract要約: 同時機械翻訳(SMT)は、ストリーミング入力の発話を受け取り、ターゲットテキストを漸進的に生成する。
我々は、$textbfA$nticipating $textbfF$uture (TAF)による$textbfT$ranslationを提案する。
その中核となる考え方は、大きな言語モデル(LLM)を使用して将来のソース語を予測し、過剰なリスクを伴わずに機会的に翻訳することである。
- 参考スコア(独自算出の注目度): 27.613918824789877
- License:
- Abstract: Simultaneous machine translation (SMT) takes streaming input utterances and incrementally produces target text. Existing SMT methods only use the partial utterance that has already arrived at the input and the generated hypothesis. Motivated by human interpreters' technique to forecast future words before hearing them, we propose $\textbf{T}$ranslation by $\textbf{A}$nticipating $\textbf{F}$uture (TAF), a method to improve translation quality while retraining low latency. Its core idea is to use a large language model (LLM) to predict future source words and opportunistically translate without introducing too much risk. We evaluate our TAF and multiple baselines of SMT on four language directions. Experiments show that TAF achieves the best translation quality-latency trade-off and outperforms the baselines by up to 5 BLEU points at the same latency (three words).
- Abstract(参考訳): 同時機械翻訳(SMT)は、ストリーミング入力の発話を受け取り、ターゲットテキストを漸進的に生成する。
既存のSMT法では、すでに入力と生成された仮説に到達した部分的発話のみを使用する。
低レイテンシを調整しながら翻訳品質を向上する手法である$\textbf{T}$ranslation by $\textbf{A}$nticipating $\textbf{F}$uture (TAF)を提案する。
その中核となる考え方は、大きな言語モデル(LLM)を使用して将来のソース語を予測し、過剰なリスクを伴わずに機会的に翻訳することである。
我々は,4言語方向のTAFとSMTの複数のベースラインを評価した。
実験の結果、TAFは翻訳品質とレイテンシのトレードオフを最良に達成し、同じレイテンシ(3ワード)で最大5 BLEUポイントのベースラインを上回ります。
関連論文リスト
- Language Model is a Branch Predictor for Simultaneous Machine
Translation [73.82754138171587]
翻訳遅延を低減するため,SiMTタスクに分岐予測手法を組み込むことを提案する。
言語モデルを分岐予測器として利用し,潜在的な分岐方向を予測する。
実際のソース語が予測されたソース語から逸脱すると、実際のソース語を使用して出力を復号し、予測された出力を置き換える。
論文 参考訳(メタデータ) (2023-12-22T07:32:47Z) - CBSiMT: Mitigating Hallucination in Simultaneous Machine Translation
with Weighted Prefix-to-Prefix Training [13.462260072313894]
同時機械翻訳(SiMT)は、全文が利用可能になる前に翻訳を開始することを必要とする課題である。
Prefix-to-フレームワークはSiMTに適用されることが多く、部分的なソースプレフィックスのみを使用してターゲットトークンを予測することを学ぶ。
本稿では,モデル信頼を利用して幻覚トークンを知覚する信頼に基づく同時機械翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T02:44:45Z) - Improving speech translation by fusing speech and text [24.31233927318388]
異なるモダリティである音声とテキストの相補的な長所を利用する。
textbfFuse-textbfSpeech-textbfText (textbfFST)を提案する。
論文 参考訳(メタデータ) (2023-05-23T13:13:48Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Emergent Communication Pretraining for Few-Shot Machine Translation [66.48990742411033]
我々は、参照ゲームからの創発的コミュニケーションを介してニューラルネットワークを事前訓練する。
私たちの重要な前提は、実世界の環境の粗悪な近似として、画像に基づくコミュニケーションを基盤にすることで、帰納的に自然言語学習のモデルに偏りが生じる、ということです。
論文 参考訳(メタデータ) (2020-11-02T10:57:53Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Language Model Prior for Low-Resource Neural Machine Translation [85.55729693003829]
ニューラル翻訳モデル (TM) において, LM を事前に組み込む新しい手法を提案する。
正規化項を追加し、TMの出力分布をLMの下で予測可能とする。
2つの低リソース機械翻訳データセットの結果は、限られたモノリンガルデータであっても明らかな改善を示している。
論文 参考訳(メタデータ) (2020-04-30T16:29:56Z) - Modeling Future Cost for Neural Machine Translation [62.427034890537676]
提案手法は,NTTシステムにおける各目標語の将来コストをモデル化するための簡易かつ効率的な手法である。
提案手法は強力なTransformerベースのNMTベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-28T05:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。