論文の概要: Cross-model Back-translated Distillation for Unsupervised Machine
Translation
- arxiv url: http://arxiv.org/abs/2006.02163v4
- Date: Mon, 24 May 2021 16:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:18:31.146137
- Title: Cross-model Back-translated Distillation for Unsupervised Machine
Translation
- Title(参考訳): 教師なし機械翻訳のためのクロスモデル逆転写蒸留法
- Authors: Xuan-Phi Nguyen, Shafiq Joty, Thanh-Tung Nguyen, Wu Kui, Ai Ti Aw
- Abstract要約: CBD(Cross-model Back-translate Distillation)と呼ばれる標準UTTフレームワークに新しいコンポーネントを導入する。
CBDは、WMT'14英語・フランス語・WMT'16英語・ドイツ語・英語・ルーマニア語・ルーマニア語のバイリンガル・アン教師なし翻訳タスクで芸術の状態を達成している。
また、IWSLTの英語とドイツ語のタスクにおいて1.5-3.3のBLEU改善が達成された。
- 参考スコア(独自算出の注目度): 21.79719281036467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent unsupervised machine translation (UMT) systems usually employ three
main principles: initialization, language modeling and iterative
back-translation, though they may apply them differently. Crucially, iterative
back-translation and denoising auto-encoding for language modeling provide data
diversity to train the UMT systems. However, the gains from these
diversification processes has seemed to plateau. We introduce a novel component
to the standard UMT framework called Cross-model Back-translated Distillation
(CBD), that is aimed to induce another level of data diversification that
existing principles lack. CBD is applicable to all previous UMT approaches. In
our experiments, CBD achieves the state of the art in the WMT'14
English-French, WMT'16 English-German and English-Romanian bilingual
unsupervised translation tasks, with 38.2, 30.1, and 36.3 BLEU respectively. It
also yields 1.5-3.3 BLEU improvements in IWSLT English-French and
English-German tasks. Through extensive experimental analyses, we show that CBD
is effective because it embraces data diversity while other similar variants do
not.
- Abstract(参考訳): 最近のunsupervised machine translation (umt) システムは、通常、初期化、言語モデリング、反復バックトランスレーションという3つの原則を採用している。
重要なことに、言語モデリングのための反復的なバックトランスレーションとデノベーション自動エンコーディングは、UTTシステムのトレーニングにデータ多様性を提供する。
しかし、これらの多様化プロセスからの利益は高まりつつあるようだ。
我々は、既存の原則に欠けている別のレベルのデータ多様化を誘発することを目的とした、CBD(Cross-model Back-trantransferase Distillation)と呼ばれる標準UTTフレームワークに新しいコンポーネントを導入する。
CBDは以前のUTTアプローチすべてに適用できる。
我々の実験では、CBDは、WMT'14、WMT'16、WMT'16、WMT'16において、それぞれ38.2、30.1、36.3BLEUの非言語翻訳を達成している。
また、IWSLTの英語とドイツ語のタスクにおいて1.5-3.3のBLEU改善が達成された。
広範な実験分析により,cbdはデータ多様性を取り入れているが,他の類似種はそうではないため有効であることが示された。
関連論文リスト
- Machine Translation for Ge'ez Language [0.0]
Ge'ezのような低リソース言語の機械翻訳は、語彙外単語、ドメインミスマッチ、ラベル付きトレーニングデータの欠如といった課題に直面している。
言語関連性に基づく多言語ニューラルマシン翻訳(MNMT)モデルを開発した。
また,最新のLCMであるGPT-3.5を用いて,ファジィマッチングを用いた数ショット翻訳実験を行った。
論文 参考訳(メタデータ) (2023-11-24T14:55:23Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Beyond Triplet: Leveraging the Most Data for Multimodal Machine
Translation [53.342921374639346]
マルチモーダル機械翻訳は、視覚などの他のモーダルからの情報を取り入れることで、翻訳品質を向上させることを目的としている。
従来のMMTシステムは主に視覚情報へのアクセスと利用に重点を置いており、画像関連データセット上でそれらの手法を検証する傾向がある。
本稿では,MTのための新しい手法と新しいデータセットを確立する。
論文 参考訳(メタデータ) (2022-12-20T15:02:38Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Revamping Multilingual Agreement Bidirectionally via Switched
Back-translation for Multilingual Neural Machine Translation [107.83158521848372]
マルチリンガル・コンセンサス(MA)は、マルチリンガル・ニューラル・マシン翻訳(MNMT)の重要性を示した
textbfBidirectional textbfMultilingual textbfAgreement via textbfSwitched textbfBack-textbftranslation (textbfBMA-SBT)
これは、訓練済みのMNMTモデルを微調整するための、新規で普遍的な多言語合意フレームワークである。
論文 参考訳(メタデータ) (2022-09-28T09:14:58Z) - Unsupervised Neural Machine Translation with Generative Language Models
Only [19.74865387759671]
生成事前学習言語モデルから、最先端の教師なしニューラルネットワーク翻訳システムを導出する方法を示す。
本手法は, 数発増幅, 蒸留, 逆翻訳の3段階からなる。
論文 参考訳(メタデータ) (2021-10-11T17:35:34Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - ZmBART: An Unsupervised Cross-lingual Transfer Framework for Language
Generation [4.874780144224057]
自然言語生成のための言語間移動は、比較的研究が進められている。
NLGの4つのタスク(テキスト要約、質問生成、ニュース見出し生成、イントラクタ生成)と3つの構文的に多様な言語について検討する。
並列あるいは擬似並列/バックトランスレートデータを使用しない教師なし言語間言語生成フレームワーク(ZmBART)を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:08:01Z) - Leveraging Monolingual Data with Self-Supervision for Multilingual
Neural Machine Translation [54.52971020087777]
モノリンガルデータを使用することで、マルチリンガルモデルにおける低リソース言語の翻訳品質が大幅に向上する。
自己監督は多言語モデルのゼロショット翻訳品質を改善する。
並列データやバックトランスレーションなしで、ro-en翻訳で最大33のBLEUを得る。
論文 参考訳(メタデータ) (2020-05-11T00:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。