論文の概要: Triangular Transfer: Freezing the Pivot for Triangular Machine
Translation
- arxiv url: http://arxiv.org/abs/2203.09027v1
- Date: Thu, 17 Mar 2022 02:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:03:43.078803
- Title: Triangular Transfer: Freezing the Pivot for Triangular Machine
Translation
- Title(参考訳): 三角トランスファー:三角機械翻訳のためのピボットの凍結
- Authors: Meng Zhang, Liangyou Li, Qun Liu
- Abstract要約: 三角形機械翻訳は、言語対が限られた並列データを持つ場合である。
三角機械翻訳の鍵は、そのような補助データの活用が成功することである。
本稿では,あらゆる種類の補助データを利用するトランスファーラーニングに基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 30.655004159965923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Triangular machine translation is a special case of low-resource machine
translation where the language pair of interest has limited parallel data, but
both languages have abundant parallel data with a pivot language. Naturally,
the key to triangular machine translation is the successful exploitation of
such auxiliary data. In this work, we propose a transfer-learning-based
approach that utilizes all types of auxiliary data. As we train auxiliary
source-pivot and pivot-target translation models, we initialize some parameters
of the pivot side with a pre-trained language model and freeze them to
encourage both translation models to work in the same pivot language space, so
that they can be smoothly transferred to the source-target translation model.
Experiments show that our approach can outperform previous ones.
- Abstract(参考訳): 三角形機械翻訳は低リソース機械翻訳の特殊な例であり、言語対が限られた並列データを持つが、両方の言語はピボット言語と豊富な並列データを持つ。
当然、三角機械翻訳の鍵は、このような補助データの活用の成功である。
本稿では,あらゆる種類の補助データを活用したトランスファーラーニング方式を提案する。
補助的なソース・ピボットとピボット・ターゲットの翻訳モデルを訓練する際、あらかじめ訓練された言語モデルでピボット側のパラメータを初期化し、凍結して両方の翻訳モデルを同じピボット言語空間で動作させ、ソース・ターゲットの翻訳モデルにスムーズに転送できるようにします。
実験により、我々のアプローチは以前の手法より優れていることが示された。
関連論文リスト
- End-to-end Training and Decoding for Pivot-based Cascaded Translation
Model [40.41344631506705]
本稿では,ケースケード翻訳モデルのエンドツーエンド学習手法を提案する。
我々は、ピボットデコーディングにおいてビームサーチを用いてトークンと確率分布の不整合を緩和する。
論文 参考訳(メタデータ) (2023-05-03T16:48:43Z) - On the Role of Parallel Data in Cross-lingual Transfer Learning [30.737717433111776]
本稿では, 教師なし機械翻訳を用いて合成並列データを生成する方法について検討する。
モデルが生成した並列データでさえ、下流のタスクに役立ちます。
以上の結果から,既存の多言語モデルではモノリンガルデータの潜在能力を活用できないことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T11:23:04Z) - Multilingual Bidirectional Unsupervised Translation Through Multilingual
Finetuning and Back-Translation [23.401781865904386]
本研究では,NMTモデルをトレーニングし,未知の言語を英語と英語の両方に翻訳する2段階のアプローチを提案する。
最初の段階では、事前訓練されたXLM-RおよびRoBERTa重みにエンコーダデコーダモデルを初期化し、40言語で並列データに対して多言語微調整を行う。
第2段階では、この一般化機能を活用して、単言語データセットから合成並列データを生成し、その後、連続した後方翻訳ラウンドで双方向に訓練する。
論文 参考訳(メタデータ) (2022-09-06T21:20:41Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - Improving Neural Machine Translation by Bidirectional Training [85.64797317290349]
我々は、ニューラルネットワーク翻訳のためのシンプルで効果的な事前学習戦略である双方向トレーニング(BiT)を提案する。
具体的には、初期モデルのパラメータを双方向に更新し、正常にモデルを調整する。
実験の結果,BiTは8つの言語対上の15の翻訳タスクに対して,SOTAニューラルマシン翻訳性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:58:33Z) - Simultaneous Multi-Pivot Neural Machine Translation [12.796775798210133]
同時のピボットNMT設定では、2つのピボット言語を使用することで最大5.8 BLEUの改善につながります。
N-way parallel UN corpus for Arabic to English NMTをフランス語とスペイン語でピボットとして用いた低リソース設定における実験により、2つのピボット言語を使用した同時ピボットNMT設定が最大5.8 BLEUの改善につながることが明らかになった。
論文 参考訳(メタデータ) (2021-04-15T12:19:52Z) - XLM-T: Scaling up Multilingual Machine Translation with Pretrained
Cross-lingual Transformer Encoders [89.0059978016914]
そこで本稿では,既製のクロスリンガルトランスフォーマでモデルを初期化し,多言語並列データで微調整するXLM-Tを提案する。
この単純な方法は,10対のWMTデータセットと94対のOPUS-100コーパスにおいて,大幅な改善を実現する。
論文 参考訳(メタデータ) (2020-12-31T11:16:51Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。