論文の概要: EdinSaar@WMT21: North-Germanic Low-Resource Multilingual NMT
- arxiv url: http://arxiv.org/abs/2109.14368v1
- Date: Wed, 29 Sep 2021 11:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 18:49:24.509583
- Title: EdinSaar@WMT21: North-Germanic Low-Resource Multilingual NMT
- Title(参考訳): EdinSaar@WMT21:北ドイツ低資源多言語NTT
- Authors: Svetlana Tchistiakova, Jesujoba Alabi, Koel Dutta Chowdhury, Sourav
Dutta and Dana Ruiter
- Abstract要約: 我々はアイスランド語(is)、ノルウェー語(nb)、スウェーデン語(sv)への翻訳のための多言語翻訳モデルを提出する。
我々は,多言語事前学習,逆翻訳,微調整,アンサンブルなど,様々な実験手法を用いている。
ほとんどの翻訳方向では、我々のモデルは他の提出されたシステムよりも優れています。
- 参考スコア(独自算出の注目度): 6.5861311036042585
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We describe the EdinSaar submission to the shared task of Multilingual
Low-Resource Translation for North Germanic Languages at the Sixth Conference
on Machine Translation (WMT2021). We submit multilingual translation models for
translations to/from Icelandic (is), Norwegian-Bokmal (nb), and Swedish (sv).
We employ various experimental approaches, including multilingual pre-training,
back-translation, fine-tuning, and ensembling. In most translation directions,
our models outperform other submitted systems.
- Abstract(参考訳): 我々は,第6回機械翻訳会議(WMT2021)において,北ゲルマン語用多言語低リソース翻訳の共通タスクに対するEdinSaarの提出について述べる。
我々はアイスランド語(is)、ノルウェー語(nb)、スウェーデン語(sv)への翻訳のための多言語翻訳モデルを提出する。
我々は,多言語事前学習,逆翻訳,微調整,アンサンブルなど,様々な実験手法を用いている。
ほとんどの翻訳方向では、我々のモデルは他の提出されたシステムより優れている。
関連論文リスト
- Enhancing Translation for Indigenous Languages: Experiments with
Multilingual Models [57.10972566048735]
本稿では,3つの方法のシステム記述について述べる。
M2M-100とmBART50という2つの多言語モデルと1つのバイリンガル(1対1)-ヘルシンキNLPスペイン語翻訳モデルを使いました。
アメリカから11の言語を実験し、使用したセットアップと、達成した成果を報告しました。
論文 参考訳(メタデータ) (2023-05-27T08:10:40Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - High-resource Language-specific Training for Multilingual Neural Machine
Translation [109.31892935605192]
負の干渉を軽減するために,HLT-MT(High-Resource Language-specific Training)を用いた多言語翻訳モデルを提案する。
具体的には、まずマルチ言語モデルを高リソースペアでトレーニングし、デコーダの上部にある言語固有のモジュールを選択する。
HLT-MTは、高リソース言語から低リソース言語への知識伝達のために、利用可能なすべてのコーパスでさらに訓練されている。
論文 参考訳(メタデータ) (2022-07-11T14:33:13Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help? [29.01386302441015]
MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T02:31:48Z) - CUNI systems for WMT21: Multilingual Low-Resource Translation for
Indo-European Languages Shared Task [0.0]
複数の類似言語ペアに対してジョイントモデルを使用することで,各ペアの翻訳品質が向上することを示す。
また,チャララクタレベルのバイリンガルモデルと非常に類似した言語対が競合することを示す。
論文 参考訳(メタデータ) (2021-09-20T08:10:39Z) - Back-translation for Large-Scale Multilingual Machine Translation [2.8747398859585376]
本稿では,多言語間の共通表現がより優れた多言語翻訳性能をもたらすという仮説を用いて,単一の多言語翻訳システムを構築することを目的とする。
我々は、バイリンガル翻訳から多言語翻訳まで、さまざまなバック翻訳手法の探索を拡大する。
驚いたことに、語彙の小さい方がパフォーマンスが良くなり、モノリンガルの英語データも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-17T18:33:15Z) - Learning Policies for Multilingual Training of Neural Machine
Translation Systems [36.292020779233056]
低リソースのMNMT(Multilingual Neural Machine Translation)は通常、1つ以上の言語ペアの翻訳性能を改善する。
本稿では,2つの簡単な検索ベースのカリキュラムを提案し,微調整などの既存手法と併用して翻訳性能を向上させる。
論文 参考訳(メタデータ) (2021-03-11T21:38:04Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Transfer learning and subword sampling for asymmetric-resource
one-to-many neural translation [14.116412358534442]
低リソース言語のためのニューラルマシン翻訳を改善する方法について概説する。
人工的に制限された3つの翻訳タスクと1つの現実世界タスクでテストが行われる。
実験は、特にスケジュールされたマルチタスク学習、denoising autoencoder、サブワードサンプリングに肯定的な効果を示す。
論文 参考訳(メタデータ) (2020-04-08T14:19:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。