論文の概要: Zero-Shot Language Transfer vs Iterative Back Translation for
Unsupervised Machine Translation
- arxiv url: http://arxiv.org/abs/2104.00106v1
- Date: Wed, 31 Mar 2021 20:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 08:34:29.113678
- Title: Zero-Shot Language Transfer vs Iterative Back Translation for
Unsupervised Machine Translation
- Title(参考訳): 教師なし機械翻訳におけるゼロショット言語転送と反復逆変換
- Authors: Aviral Joshi, Chengzhi Huang, Har Simrat Singh
- Abstract要約: この研究は、低リソース言語ペアに対する機械翻訳のさまざまなソリューションの比較に焦点を当てている。
本稿では,データサイズが教師なしMTと転送学習の両方のパフォーマンスに与える影響について論じる。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on comparing different solutions for machine translation on
low resource language pairs, namely, with zero-shot transfer learning and
unsupervised machine translation. We discuss how the data size affects the
performance of both unsupervised MT and transfer learning. Additionally we also
look at how the domain of the data affects the result of unsupervised MT. The
code to all the experiments performed in this project are accessible on Github.
- Abstract(参考訳): 本研究は,低リソース言語ペア,すなわちゼロショット転送学習と教師なし機械翻訳における機械翻訳の異なる解の比較に焦点を当てている。
本稿では,データサイズが教師なしMTと転送学習の両方のパフォーマンスに与える影響について論じる。
さらに、データのドメインが教師なしMTの結果に与える影響についても検討する。
このプロジェクトで実施されたすべての実験のコードは、githubから入手できる。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - An approach for mistranslation removal from popular dataset for Indic MT
Task [5.4755933832880865]
トレーニングコーパスから誤訳を除去し,その性能と効率を評価するアルゴリズムを提案する。
実験には2つのIndic言語(IL)、すなわちHindi(HIN)とOdia(ODI)が選択される。
実験における翻訳の質は,BLEU, METEOR, RIBESなどの標準指標を用いて評価する。
論文 参考訳(メタデータ) (2024-01-12T06:37:19Z) - On the Copying Problem of Unsupervised NMT: A Training Schedule with a
Language Discriminator Loss [120.19360680963152]
unsupervised neural machine translation (UNMT)は多くの言語で成功している。
コピー問題、すなわち、入力文の一部を翻訳として直接コピーする問題は、遠い言語対に共通している。
本稿では,言語識別器の損失を取り入れた,シンプルだが効果的な訓練スケジュールを提案する。
論文 参考訳(メタデータ) (2023-05-26T18:14:23Z) - Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - Domain Mismatch Doesn't Always Prevent Cross-Lingual Transfer Learning [51.232774288403114]
言語間移動学習は、ゼロショット言語間分類において驚くほど効果的である。
本稿では,言語間移動におけるドメインミスマッチの影響の多くを,単純なレギュレータが克服できることを示す。
論文 参考訳(メタデータ) (2022-11-30T01:24:33Z) - Original or Translated? A Causal Analysis of the Impact of
Translationese on Machine Translation Performance [31.47795931399995]
人間に翻訳されたテキストは、同じ言語で自然に書かれたテキストとは異なる特徴を示す。
翻訳に関する既存の研究はいくつかの重要な要因を無視しており、結論は主として相関性があるが因果関係ではない。
これら2つの要因がMT性能に大きな因果関係を持つことを示す。
論文 参考訳(メタデータ) (2022-05-04T19:17:55Z) - It's Easier to Translate out of English than into it: Measuring Neural
Translation Difficulty by Cross-Mutual Information [90.35685796083563]
クロスミューチュアル情報(英: Cross-mutual information、XMI)は、機械翻訳の難易度に関する非対称情報理論の指標である。
XMIは、ほとんどのニューラルマシン翻訳モデルの確率的性質を利用する。
本稿では,現代ニューラル翻訳システムを用いた言語間翻訳の難易度に関する最初の体系的および制御的な研究について述べる。
論文 参考訳(メタデータ) (2020-05-05T17:38:48Z) - When and Why is Unsupervised Neural Machine Translation Useless? [43.68079166777282]
様々なデータ設定を持つ10の翻訳タスクにおいて、教師なし手法が妥当な翻訳を生成できない条件を分析する。
我々の分析は、現在の無監督NMTの限界を指摘し、即時の研究方向も示唆している。
論文 参考訳(メタデータ) (2020-04-22T14:00:55Z) - When Does Unsupervised Machine Translation Work? [23.690875724726908]
我々は、異種言語ペア、異種ドメイン、多様なデータセット、真の低リソース言語を用いて、教師なし機械翻訳(MT)の実証評価を行う。
ソースコーパスとターゲットコーパスが異なるドメインから来た場合,性能は急速に低下することがわかった。
さらに、ソース言語とターゲット言語が異なるスクリプトを使用すると、教師なしMT性能が低下し、信頼性の高い低リソース言語ペアにおいて非常に低いパフォーマンスが観察される。
論文 参考訳(メタデータ) (2020-04-12T00:57:47Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。