論文の概要: Can Multilinguality benefit Non-autoregressive Machine Translation?
- arxiv url: http://arxiv.org/abs/2112.08570v1
- Date: Thu, 16 Dec 2021 02:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 07:00:39.257048
- Title: Can Multilinguality benefit Non-autoregressive Machine Translation?
- Title(参考訳): 多言語性は非自己回帰機械翻訳に有効か?
- Authors: Sweta Agrawal and Julia Kreutzer and Colin Cherry
- Abstract要約: 非自己回帰(NAR)機械翻訳は、最近大幅に改善され、いくつかのベンチマークで自己回帰(AR)モデルを上回っている。
本研究は多言語NARの総合的研究である。
容量制約下で、関連する言語間の正の転送と負の転送に関して、その能力をテストする。
- 参考スコア(独自算出の注目度): 11.671379480940407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-autoregressive (NAR) machine translation has recently achieved
significant improvements, and now outperforms autoregressive (AR) models on
some benchmarks, providing an efficient alternative to AR inference. However,
while AR translation is often implemented using multilingual models that
benefit from transfer between languages and from improved serving efficiency,
multilingual NAR models remain relatively unexplored. Taking Connectionist
Temporal Classification (CTC) as an example NAR model and Imputer as a semi-NAR
model, we present a comprehensive empirical study of multilingual NAR. We test
its capabilities with respect to positive transfer between related languages
and negative transfer under capacity constraints. As NAR models require
distilled training sets, we carefully study the impact of bilingual versus
multilingual teachers. Finally, we fit a scaling law for multilingual NAR,
which quantifies its performance relative to the AR model as model scale
increases.
- Abstract(参考訳): 最近、非自己回帰(NAR)機械翻訳は大幅に改善され、いくつかのベンチマークで自己回帰(AR)モデルを上回っ、AR推論の効率的な代替手段を提供する。
しかし、AR翻訳は言語間の転送とサービス効率の改善の恩恵を受ける多言語モデルを用いて実装されることが多いが、多言語NARモデルは比較的未探索のままである。
半NARモデルとしてコネクショニスト時間分類(CTC)、半NARモデルとしてImputerを用い,多言語NARの総合的研究を行った。
容量制約下で、関連する言語間の正の転送と負の転送に関して、その能力をテストする。
NARモデルは蒸留トレーニングセットを必要とするため、バイリンガルとマルチリンガルの教師の影響を慎重に研究する。
最後に、モデルスケールが大きくなるにつれて、ARモデルに対する性能を定量化する多言語NARのスケーリング法則に適合する。
関連論文リスト
- The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Efficient Compression of Multitask Multilingual Speech Models [0.0]
DistilWhisperは、マルチタスクとマルチ言語機能の利点を維持しながら、これらの言語におけるASRのパフォーマンスギャップを埋めることができる。
提案手法は, 言語専門家を用いた軽量モジュール型ASR微調整と, ささやかな大口径v2からの知識蒸留の2つの戦略を含む。
論文 参考訳(メタデータ) (2024-05-02T03:11:59Z) - On the Analysis of Cross-Lingual Prompt Tuning for Decoder-based
Multilingual Model [49.81429697921861]
多言語自己回帰モデルにおけるパラメータ効率細調整(PEFT)と言語間タスクの相互作用について検討する。
高速チューニングは、微調整よりも低リソース言語の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T00:43:33Z) - Improving Massively Multilingual ASR With Auxiliary CTC Objectives [40.10307386370194]
FLEURSは102言語によるオープンASRベンチマークである。
我々は,最近のコネクショニスト時間分類(CTC)研究から着想を得た手法を考察し,モデルが多数の言語を扱えるようにした。
コンバータアーキテクチャを用いた自己教師型モデルを用いた最先端システムでは,相対28.4%CERによるFLEURSの先行研究よりも改善されている。
論文 参考訳(メタデータ) (2023-02-24T18:59:51Z) - EMS: Efficient and Effective Massively Multilingual Sentence Embedding Learning [38.928786416891924]
我々は,クロスリンガルトークンレベル再構築(XTR)と文レベルのコントラスト学習を訓練目的として,効率的で効果的な多言語文埋め込み(EMS)を導入する。
関連する研究と比較すると,提案したモデルは,非常に少ない並列文とGPU計算資源を用いて効率的に訓練することができる。
我々は、62言語をサポートするモデルトレーニング用コードと、EMS事前訓練文埋め込みモデルをリリースする。
論文 参考訳(メタデータ) (2022-05-31T12:29:25Z) - Non-Autoregressive Machine Translation: It's Not as Fast as it Seems [84.47091735503979]
NARモデルに関する文献にみられる評価手法の欠陥を指摘する。
我々はNARモデルと他の広く使われている効率向上手法を比較した。
我々は,今後の作業において,より現実的で広範なNARモデルの評価を求める。
論文 参考訳(メタデータ) (2022-05-04T09:30:17Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - A Comparative Study on Non-Autoregressive Modelings for Speech-to-Text
Generation [59.64193903397301]
非自己回帰モデル (NAR) はシーケンス内の複数の出力を同時に生成し、自動回帰ベースラインと比較して精度低下のコストで推論速度を著しく低減する。
エンドツーエンド自動音声認識(ASR)のための様々なNARモデリング手法の比較研究を行う。
各種課題の成果は, 精度・速度トレードオフや長文発話に対する頑健性など, NAR ASR の理解を深める上で興味深い結果をもたらす。
論文 参考訳(メタデータ) (2021-10-11T13:05:06Z) - Improving Non-autoregressive Neural Machine Translation with Monolingual
Data [13.43438045177293]
非自己回帰(NAR)ニューラルマシン翻訳は通常、自己回帰(AR)モデルからの知識蒸留によって行われる。
大規模単言語コーパスを用いてNARモデルの性能を向上する。
論文 参考訳(メタデータ) (2020-05-02T22:24:52Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。