論文の概要: Universal Simultaneous Machine Translation with Mixture-of-Experts
Wait-k Policy
- arxiv url: http://arxiv.org/abs/2109.05238v1
- Date: Sat, 11 Sep 2021 09:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 12:18:05.799361
- Title: Universal Simultaneous Machine Translation with Mixture-of-Experts
Wait-k Policy
- Title(参考訳): Mixture-of-Experts Wait-k Policy を用いたユニバーサル同時機械翻訳
- Authors: Shaolei Zhang, Yang Feng
- Abstract要約: 同時機械翻訳(SiMT)は、原文全体を読む前に翻訳を生成する。
従来の手法では、遅延レベルが異なる複数のSiMTモデルをトレーニングする必要があるため、計算コストが大きくなる。
任意のレイテンシで最適な翻訳品質を実現するために,Mixture-of-Experts Wait-k Policyを用いた汎用SiMTモデルを提案する。
- 参考スコア(独自算出の注目度): 6.487736084189248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous machine translation (SiMT) generates translation before reading
the entire source sentence and hence it has to trade off between translation
quality and latency. To fulfill the requirements of different translation
quality and latency in practical applications, the previous methods usually
need to train multiple SiMT models for different latency levels, resulting in
large computational costs. In this paper, we propose a universal SiMT model
with Mixture-of-Experts Wait-k Policy to achieve the best translation quality
under arbitrary latency with only one trained model. Specifically, our method
employs multi-head attention to accomplish the mixture of experts where each
head is treated as a wait-k expert with its own waiting words number, and given
a test latency and source inputs, the weights of the experts are accordingly
adjusted to produce the best translation. Experiments on three datasets show
that our method outperforms all the strong baselines under different latency,
including the state-of-the-art adaptive policy.
- Abstract(参考訳): 同時機械翻訳(simt)は、原文全体を読む前に翻訳を生成するため、翻訳品質とレイテンシのトレードオフが必要となる。
実用アプリケーションで異なる翻訳品質とレイテンシの要件を満たすため、従来の手法では複数のSiMTモデルを異なるレイテンシレベルでトレーニングする必要があるため、計算コストが大きくなる。
本稿では,任意のレイテンシで最適な翻訳品質を実現するために,Mixture-of-Experts Wait-k Policyを用いた汎用SiMTモデルを提案する。
具体的には,各頭部が待ち語数で待ち語として扱われるような専門家の混在に多面的注意を払っており,テストレイテンシとソース入力が与えられた場合,専門家の重みを順に調整して最適な翻訳を生成する。
3つのデータセットの実験により、我々の手法は、最先端適応ポリシーを含む、異なるレイテンシの下で強いベースラインをすべて上回ることを示した。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Adaptive Policy with Wait-$k$ Model for Simultaneous Translation [20.45004823667775]
同時機械翻訳(SiMT)は、高品質な翻訳モデルとともに、堅牢な読み書きポリシーを必要とする。
従来の方法は、固定のwait-k$ポリシーとスタンドアロンのwait-k$翻訳モデル、あるいは翻訳モデルと共同で訓練された適応型ポリシーのいずれかに依存している。
本稿では、適応ポリシーモデルを翻訳モデルから切り離すことにより、より柔軟なアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:16:32Z) - Simultaneous Machine Translation with Tailored Reference [35.46823126036308]
同時機械翻訳(SiMT)は、ソース文全体を読みながら翻訳を生成する。
既存のSiMTモデルは、異なるレイテンシで利用可能な様々なソース情報を無視して、同じ参照を使用してトレーニングされるのが一般的である。
そこで本研究では,異なるレイテンシでトレーニングしたSiMTモデルに対して,基底構造をリフレッシュして参照を調整した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-20T15:32:26Z) - Learning Optimal Policy for Simultaneous Machine Translation via Binary
Search [17.802607889752736]
同時機械翻訳(SiMT)は、原文を読みながら翻訳を出力し始める。
ポリシーは、各ターゲットトークンの翻訳中に読み込まれるソーストークンの数を決定する。
本稿では,二分探索により最適ポリシーをオンラインで構築する手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T07:03:06Z) - Improving Simultaneous Machine Translation with Monolingual Data [94.1085601198393]
同時機械翻訳(SiMT)は通常、全文ニューラルネットワーク翻訳(NMT)モデルからシーケンスレベルの知識蒸留(Seq-KD)によって行われる。
本稿では,Sq-KD で蒸留した外部モノリンガルデータとバイリンガルデータを組み合わせて,SiMT の学生を訓練する SiMT の改善のためにモノリンガルデータを活用することを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:13:53Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Measuring Uncertainty in Translation Quality Evaluation (TQE) [62.997667081978825]
本研究は,翻訳テキストのサンプルサイズに応じて,信頼区間を精度良く推定する動機づけた研究を行う。
我々はベルヌーイ統計分布モデリング (BSDM) とモンテカルロサンプリング分析 (MCSA) の手法を適用した。
論文 参考訳(メタデータ) (2021-11-15T12:09:08Z) - Exploiting Curriculum Learning in Unsupervised Neural Machine
Translation [28.75229367700697]
複数の粒度から擬似バイテキストを徐々に活用するカリキュラム学習手法を提案する。
WMT 14 En-Fr, WMT 16 En-De, WMT 16 En-Ro, LDC En-Zh 翻訳タスクの実験結果から,提案手法はより高速な収束速度で一貫した改善を実現することが示された。
論文 参考訳(メタデータ) (2021-09-23T07:18:06Z) - SimulEval: An Evaluation Toolkit for Simultaneous Translation [59.02724214432792]
テキストと音声の同時翻訳は、リアルタイムと低レイテンシのシナリオに焦点を当てている。
SimulEvalは、テキストと音声の同時翻訳のための、使いやすくて汎用的な評価ツールキットである。
論文 参考訳(メタデータ) (2020-07-31T17:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。