論文の概要: Variable-length Neural Interlingua Representations for Zero-shot Neural
Machine Translation
- arxiv url: http://arxiv.org/abs/2305.10190v1
- Date: Wed, 17 May 2023 13:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 15:58:45.894734
- Title: Variable-length Neural Interlingua Representations for Zero-shot Neural
Machine Translation
- Title(参考訳): ゼロショットニューラルマシン翻訳のための可変長ニューラルインターリングア表現
- Authors: Zhuoyuan Mao, Haiyue Song, Raj Dabre, Chenhui Chu, Sadao Kurohashi
- Abstract要約: 本稿では,その長さを可変にすることで,ニューラルインターリングア表現を向上させる新しい手法を提案する。
OPUS, IWSLT, Europarlデータセットを用いたゼロショット翻訳実験の結果, 固定長神経インターリングア表現と比較して, 安定なモデル収束と優れたゼロショット翻訳結果が得られた。
- 参考スコア(独自算出の注目度): 35.71189304098623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The language-independency of encoded representations within multilingual
neural machine translation (MNMT) models is crucial for their generalization
ability on zero-shot translation. Neural interlingua representations have been
shown as an effective method for achieving this. However, fixed-length neural
interlingua representations introduced in previous work can limit its
flexibility and representation ability. In this study, we introduce a novel
method to enhance neural interlingua representations by making their length
variable, thereby overcoming the constraint of fixed-length neural interlingua
representations. Our empirical results on zero-shot translation on OPUS, IWSLT,
and Europarl datasets demonstrate stable model convergence and superior
zero-shot translation results compared to fixed-length neural interlingua
representations. However, our analysis reveals the suboptimal efficacy of our
approach in translating from certain source languages, wherein we pinpoint the
defective model component in our proposed method.
- Abstract(参考訳): 多言語ニューラルマシン翻訳(mnmt)モデルにおける符号化表現の言語依存は、ゼロショット翻訳における一般化能力に不可欠である。
ニューラルインターリングア表現は、これを達成する効果的な方法として示されている。
しかし、以前の研究で導入された固定長神経インターリングア表現は、その柔軟性と表現能力を制限することができる。
本研究では,その長さを可変にすることで,固定長のニューラルインターリングア表現の制約を克服し,ニューラルインターリングア表現を強化する新しい手法を提案する。
OPUS, IWSLT, Europarlデータセットを用いたゼロショット翻訳実験の結果, 固定長神経インターリングア表現と比較して安定なモデル収束と優れたゼロショット翻訳結果が得られた。
しかし,本研究は,提案手法の欠陥モデル要素を特定できる,特定のソース言語への翻訳における最善の手法の有効性を明らかにするものである。
関連論文リスト
- Improving Multilingual Neural Machine Translation by Utilizing Semantic and Linguistic Features [18.76505158652759]
複数の言語間の意味的特徴と言語的特徴を利用して多言語翻訳を強化することを提案する。
エンコーダ側では,意味的特徴と言語的特徴を両立させることにより,エンコーダ表現を整合させる非係合学習タスクを導入する。
デコーダ側では、言語エンコーダを利用して低レベル言語機能を統合し、ターゲット言語生成を支援する。
論文 参考訳(メタデータ) (2024-08-02T17:10:12Z) - Enhancing Context Through Contrast [0.4068270792140993]
本稿では,ニューラルマシン翻訳の性能向上のための新しいコンテキスト拡張ステップを提案する。
他のアプローチとは異なり、明示的にデータを拡張するのではなく、言語を暗黙的な拡張と見なす。
本手法は, 組込みをゼロから学習せず, 事前学習した組込みに一般化することができる。
論文 参考訳(メタデータ) (2024-01-06T22:13:51Z) - Learning an Artificial Language for Knowledge-Sharing in Multilingual
Translation [15.32063273544696]
コードブック内のエントリにエンコーダ状態を割り当てることで,多言語モデルの潜伏空間を識別する。
我々は,現実的なデータ量と領域を用いた大規模実験へのアプローチを検証する。
また、学習した人工言語を用いてモデル行動を分析し、類似のブリッジ言語を使用することで、残りの言語間での知識共有が向上することを発見した。
論文 参考訳(メタデータ) (2022-11-02T17:14:42Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Rethinking Zero-shot Neural Machine Translation: From a Perspective of
Latent Variables [28.101782382170306]
従来の訓練対象にピボット言語に基づく自動エンコーダ目標を導入し,ゼロショット方向の翻訳精度を向上させる。
提案手法は, 突発的相関を効果的に排除し, 顕著な性能で最先端の手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-10T07:18:53Z) - Improving Zero-Shot Translation by Disentangling Positional Information [24.02434897109097]
言語固有の表現を引き起こす主な要因は、入力トークンに対する位置対応であることを示す。
指示方向の品質を維持しながら、ゼロショット翻訳で最大18.5 BLEUポイントを得る。
論文 参考訳(メタデータ) (2020-12-30T12:20:41Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。