論文の概要: Adapting to Non-Centered Languages for Zero-shot Multilingual
Translation
- arxiv url: http://arxiv.org/abs/2209.04138v1
- Date: Fri, 9 Sep 2022 06:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:33:42.195681
- Title: Adapting to Non-Centered Languages for Zero-shot Multilingual
Translation
- Title(参考訳): ゼロショット多言語翻訳のための非中心言語への適応
- Authors: Zhi Qu, Taro Watanabe
- Abstract要約: 我々は,非中心言語に適応して,シンプルで軽量で効果的な言語特化モデリング手法を提案する。
IWSLT17, Europarl, TED Talk, OPUS-100 データセットの Transformer を用いた実験により, 本手法が非中心データ条件に容易に適合できることが判明した。
- 参考スコア(独自算出の注目度): 12.487990897680422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual neural machine translation can translate unseen language pairs
during training, i.e. zero-shot translation. However, the zero-shot translation
is always unstable. Although prior works attributed the instability to the
domination of central language, e.g. English, we supplement this viewpoint with
the strict dependence of non-centered languages. In this work, we propose a
simple, lightweight yet effective language-specific modeling method by adapting
to non-centered languages and combining the shared information and the
language-specific information to counteract the instability of zero-shot
translation. Experiments with Transformer on IWSLT17, Europarl, TED talks, and
OPUS-100 datasets show that our method not only performs better than strong
baselines in centered data conditions but also can easily fit non-centered data
conditions. By further investigating the layer attribution, we show that our
proposed method can disentangle the coupled representation in the correct
direction.
- Abstract(参考訳): 多言語ニューラルマシン翻訳は、訓練中に知覚されない言語対、すなわちゼロショット翻訳を翻訳することができる。
しかし、ゼロショット変換は常に不安定である。
先行研究は、例えば英語のような中央言語の支配の不安定さに起因しているが、この視点を非中心言語への厳密な依存で補う。
本研究では,非中心言語に適応し,共有情報と言語固有情報を組み合わせてゼロショット翻訳の不安定性に対処する,シンプルで軽量で効果的な言語固有モデリング手法を提案する。
IWSLT17, Europarl, TED Talk, OPUS-100 データセットの Transformer を用いた実験により,本手法は中心データ条件の強いベースラインよりも優れているだけでなく,非中心データ条件にも容易に適合できることを示した。
提案手法は,レイヤの属性をさらに調べることで,結合した表現を正しい方向に切り離すことができることを示す。
関連論文リスト
- Question Translation Training for Better Multilingual Reasoning [108.10066378240879]
大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
本稿では,X- English parallel question dataを微調整することで,推論する質問を英語に翻訳するモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-15T16:39:10Z) - Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Exploring Linguistic Similarity and Zero-Shot Learning for Multilingual
Translation of Dravidian Languages [0.34998703934432673]
我々はDravidian-Dravidian多言語翻訳のための単一デコーダニューラルマシン翻訳システムを構築した。
我々のモデルは、50%の言語方向で訓練された場合、大規模ピボットベースモデルの3 BLEU以内のスコアを得る。
論文 参考訳(メタデータ) (2023-08-10T13:38:09Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Translate & Fill: Improving Zero-Shot Multilingual Semantic Parsing with
Synthetic Data [2.225882303328135]
多言語セマンティックパーシングタスクのための銀のトレーニングデータを生成するための新しいTranslate-and-Fill(TaF)手法を提案する。
3つの多言語意味解析データセットの実験結果は、TaFによるデータ拡張が類似システムと競合する精度に達することを示している。
論文 参考訳(メタデータ) (2021-09-09T14:51:11Z) - Improving Zero-Shot Translation by Disentangling Positional Information [24.02434897109097]
言語固有の表現を引き起こす主な要因は、入力トークンに対する位置対応であることを示す。
指示方向の品質を維持しながら、ゼロショット翻訳で最大18.5 BLEUポイントを得る。
論文 参考訳(メタデータ) (2020-12-30T12:20:41Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。