論文の概要: Efficient Inference for Multilingual Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2109.06679v1
- Date: Tue, 14 Sep 2021 13:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:39:10.830687
- Title: Efficient Inference for Multilingual Neural Machine Translation
- Title(参考訳): 多言語ニューラルマシン翻訳の効率的な推論
- Authors: Alexandre Berard, Dain Lee, St\'ephane Clinchant, Kweonwoo Jung,
Vassilina Nikoulina
- Abstract要約: 我々は、その品質を劣化させることなく、多言語NMTを推論で高速にする方法をいくつか検討する。
実験により,浅いデコーダと語彙フィルタを組み合わせることで,翻訳品質を損なうことなく2倍以上の高速な推論が可能であることが確認された。
- 参考スコア(独自算出の注目度): 60.10996883354372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual NMT has become an attractive solution for MT deployment in
production. But to match bilingual quality, it comes at the cost of larger and
slower models. In this work, we consider several ways to make multilingual NMT
faster at inference without degrading its quality. We experiment with several
"light decoder" architectures in two 20-language multi-parallel settings:
small-scale on TED Talks and large-scale on ParaCrawl. Our experiments
demonstrate that combining a shallow decoder with vocabulary filtering leads to
more than twice faster inference with no loss in translation quality. We
validate our findings with BLEU and chrF (on 380 language pairs), robustness
evaluation and human evaluation.
- Abstract(参考訳): 多言語NMTは実運用におけるMTデプロイメントの魅力的なソリューションとなっている。
しかし、バイリンガルの品質に合わせるために、より大型で遅いモデルのコストがかかる。
本研究では,その品質を劣化させることなく,多言語NMTを推論で高速化する方法について検討する。
2つの20言語マルチパラレル環境において、いくつかの"ライトデコーダ"アーキテクチャを実験した。
我々の実験は、浅いデコーダと語彙フィルタリングを組み合わせると、翻訳品質を損なうことなく、推論が2倍以上速くなることを示している。
BLEU, chrF(380言語対), 頑健性評価, 人的評価を行った。
関連論文リスト
- Machine Translation for Ge'ez Language [0.0]
Ge'ezのような低リソース言語の機械翻訳は、語彙外単語、ドメインミスマッチ、ラベル付きトレーニングデータの欠如といった課題に直面している。
言語関連性に基づく多言語ニューラルマシン翻訳(MNMT)モデルを開発した。
また,最新のLCMであるGPT-3.5を用いて,ファジィマッチングを用いた数ショット翻訳実験を行った。
論文 参考訳(メタデータ) (2023-11-24T14:55:23Z) - On the Calibration of Multilingual Question Answering LLMs [57.296161186129545]
複数の多言語大言語モデル(MLLM)のキャリブレーションを様々な質問応答タスクでベンチマークする。
本研究では,分布内,分布外,言語間移動設定におけるキャリブレーションの異なる次元について検討する。
LlaMa2のようなデコーダのみのLLMでは、コンテキスト内学習は多言語データの信頼性校正を改善する。
論文 参考訳(メタデータ) (2023-11-15T03:29:02Z) - Breaking Down Multilingual Machine Translation [74.24795388967907]
マルチ言語学習は一般にエンコーダにとって有益であるが,ローソース言語(LRL)ではデコーダにのみ有益であることを示す。
LRLの多言語モデルと一対多モデルは、Aharoniらによって報告された最良の結果よりも優れています。
論文 参考訳(メタデータ) (2021-10-15T14:57:12Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。