論文の概要: Learning Optimal Policy for Simultaneous Machine Translation via Binary
Search
- arxiv url: http://arxiv.org/abs/2305.12774v1
- Date: Mon, 22 May 2023 07:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:49:46.117918
- Title: Learning Optimal Policy for Simultaneous Machine Translation via Binary
Search
- Title(参考訳): 二元探索による同時機械翻訳のための最適方針の学習
- Authors: Shoutao Guo, Shaolei Zhang, Yang Feng
- Abstract要約: 同時機械翻訳(SiMT)は、原文を読みながら翻訳を出力し始める。
ポリシーは、各ターゲットトークンの翻訳中に読み込まれるソーストークンの数を決定する。
本稿では,二分探索により最適ポリシーをオンラインで構築する手法を提案する。
- 参考スコア(独自算出の注目度): 17.802607889752736
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Simultaneous machine translation (SiMT) starts to output translation while
reading the source sentence and needs a precise policy to decide when to output
the generated translation. Therefore, the policy determines the number of
source tokens read during the translation of each target token. However, it is
difficult to learn a precise translation policy to achieve good latency-quality
trade-offs, because there is no golden policy corresponding to parallel
sentences as explicit supervision. In this paper, we present a new method for
constructing the optimal policy online via binary search. By employing explicit
supervision, our approach enables the SiMT model to learn the optimal policy,
which can guide the model in completing the translation during inference.
Experiments on four translation tasks show that our method can exceed strong
baselines across all latency scenarios.
- Abstract(参考訳): 同時機械翻訳(simt)は、原文を読みながら翻訳を出力し始め、生成された翻訳をいつ出力するかを決定する正確なポリシーを必要とする。
したがって、ポリシーは、各ターゲットトークンの翻訳中に読み込まれるソーストークンの数を決定する。
しかし, 並列文に対応する黄金律が存在しないため, 高い遅延品質のトレードオフを実現するためには, 正確な翻訳方針を習得することは困難である。
本稿では,バイナリ検索によりオンラインの最適ポリシーを構築する新しい手法を提案する。
本手法では, 明示的な監督手法を用いることで, 推論中の翻訳の完了を誘導する最適ポリシーをSiMTモデルで学習することができる。
4つの翻訳タスクを実験した結果,提案手法はすべてのレイテンシシナリオにおいて強いベースラインを超越できることがわかった。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Agent-SiMT: Agent-assisted Simultaneous Machine Translation with Large Language Models [38.49925017512848]
同時機械翻訳(SiMT)は、原文を読みながらターゲット翻訳を生成する。
既存の SiMT メソッドは一般的に、ポリシーを同時に決定し、翻訳を生成する、従来の Transformer アーキテクチャを採用している。
本稿では,Large Language Models(LLM)と従来のSiMTメソッドの長所を組み合わせたフレームワークであるAgent-SiMTを紹介する。
論文 参考訳(メタデータ) (2024-06-11T03:09:20Z) - SiLLM: Large Language Models for Simultaneous Machine Translation [41.303764786790616]
同時機械翻訳(SiMT)は、原文を読みながら翻訳を生成する。
既存のSiMT手法では、ポリシーを同時に決定し、翻訳を生成するために単一のモデルを採用している。
我々は2つのサブタスクを別々のエージェントに委譲するSiLLMを提案する。
論文 参考訳(メタデータ) (2024-02-20T14:23:34Z) - Adaptive Policy with Wait-$k$ Model for Simultaneous Translation [20.45004823667775]
同時機械翻訳(SiMT)は、高品質な翻訳モデルとともに、堅牢な読み書きポリシーを必要とする。
従来の方法は、固定のwait-k$ポリシーとスタンドアロンのwait-k$翻訳モデル、あるいは翻訳モデルと共同で訓練された適応型ポリシーのいずれかに依存している。
本稿では、適応ポリシーモデルを翻訳モデルから切り離すことにより、より柔軟なアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:16:32Z) - LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation [6.411228564798412]
機械翻訳は、多くのライブシナリオで有用であるが、精度とレイテンシのトレードオフのため非常に難しい。
LEAPTと呼ばれる新しい適応型トレーニングポリシーを提案し、それによって機械翻訳モデルがソースプレフィックスの翻訳方法を学習し、将来の文脈を活用することができる。
論文 参考訳(メタデータ) (2023-03-21T11:17:37Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Exploring Continuous Integrate-and-Fire for Adaptive Simultaneous Speech
Translation [75.86581380817464]
SimulSTシステムは通常、音声情報を集約する事前決定と、読み書きを決定するポリシーの2つのコンポーネントを含む。
本稿では,CIF(Continuous Integrate-and-Fire)を適用して適応政策をモデル化することを提案する。
単調なマルチヘッドアテンション (MMA) と比較して,本手法はより単純な計算,低レイテンシにおける品質,長い発話の一般化に優れる。
論文 参考訳(メタデータ) (2022-03-22T23:33:18Z) - Universal Simultaneous Machine Translation with Mixture-of-Experts
Wait-k Policy [6.487736084189248]
同時機械翻訳(SiMT)は、原文全体を読む前に翻訳を生成する。
従来の手法では、遅延レベルが異なる複数のSiMTモデルをトレーニングする必要があるため、計算コストが大きくなる。
任意のレイテンシで最適な翻訳品質を実現するために,Mixture-of-Experts Wait-k Policyを用いた汎用SiMTモデルを提案する。
論文 参考訳(メタデータ) (2021-09-11T09:43:15Z) - Meta Back-translation [111.87397401837286]
プリトレーニングされたバック翻訳モデルから擬似並列データを生成する新しい手法を提案する。
本手法は,生成する擬似並列データに対して,検証セット上で良好な処理を行うためのフォワードトランスレーションモデルを訓練するように,事前訓練されたバックトランスレーションモデルを適用するメタラーニングアルゴリズムである。
論文 参考訳(メタデータ) (2021-02-15T20:58:32Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - Learning Coupled Policies for Simultaneous Machine Translation using
Imitation Learning [85.70547744787]
本稿では,プログラマ-解釈ポリシーを併用した同時翻訳モデルを効率よく学習する手法を提案する。
6つの言語対の実験により,翻訳品質の点で,本手法は高いベースラインを達成できた。
論文 参考訳(メタデータ) (2020-02-11T10:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。