論文の概要: End-to-End Training of Both Translation Models in the Back-Translation
Framework
- arxiv url: http://arxiv.org/abs/2202.08465v1
- Date: Thu, 17 Feb 2022 06:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:24:22.642447
- Title: End-to-End Training of Both Translation Models in the Back-Translation
Framework
- Title(参考訳): バックトランスレーションフレームワークにおける両翻訳モデルのエンドツーエンドトレーニング
- Authors: DongNyeong Heo and Heeyoul Choi
- Abstract要約: ニューラルマシン翻訳(NMT)における半教師付き学習アルゴリズムは、追加のモノリンガルコーパスを用いて翻訳品質を著しく改善した。
バックトランスレーションは理論的によく構造化され、最先端の手法である。
本稿では,VAEの後方翻訳のためのトレーニングフレームワークを実践的に実装し,エンドツーエンドのバックプロパゲーションによって学習する,微分可能な文を生成する分類的再パラメータ化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning algorithms in neural machine translation (NMT) have
significantly improved translation quality compared to the supervised learning
algorithms by using additional monolingual corpora. Among them,
back-translation is a theoretically well-structured and cutting-edge method.
Given two pre-trained NMT models between source and target languages, one
translates a monolingual sentence as a latent sentence, and the other
reconstructs the monolingual input sentence given the latent sentence.
Therefore, previous works tried to apply the variational auto-encoder's (VAE)
training framework to the back-translation framework. However, the discrete
property of the latent sentence made it impossible to use backpropagation in
the framework. This paper proposes a categorical reparameterization trick that
generates a differentiable sentence, with which we practically implement the
VAE's training framework for the back-translation and train it by end-to-end
backpropagation. In addition, we propose several regularization techniques that
are especially advantageous to this framework. In our experiments, we
demonstrate that our method makes backpropagation available through the latent
sentences and improves the BLEU scores on the datasets of the WMT18 translation
task.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)における半教師付き学習アルゴリズムは、追加の単言語コーパスを用いることで教師付き学習アルゴリズムと比較して翻訳品質を著しく改善した。
その中でもバックトランスレーションは理論的によく構造化された最先端の方法である。
ソース言語とターゲット言語の間で事前訓練された2つのNMTモデルが与えられた場合、一方はモノリンガル文を潜在文として翻訳し、他方は潜在文を与えられたモノリンガル入力文を再構成する。
そのため、以前の研究では、可変オートエンコーダ(VAE)トレーニングフレームワークをバックトランスレーションフレームワークに適用しようとした。
しかし、潜在文の離散性は、フレームワークでバックプロパゲーションを使うことを不可能にした。
本稿では,VAEの後方翻訳訓練フレームワークを実践し,エンドツーエンドのバックプロパゲーションによって学習する,識別可能な文を生成する分類的再パラメータ化手法を提案する。
さらに,このフレームワークに特に有利ないくつかの正規化手法を提案する。
本実験では,本手法が潜在文を通じてバックプロパゲーションを利用可能とし,wmt18翻訳タスクのデータセットのbleuスコアを改善することを実証する。
関連論文リスト
- Choose the Final Translation from NMT and LLM hypotheses Using MBR Decoding: HW-TSC's Submission to the WMT24 General MT Shared Task [9.819139035652137]
本稿では,Huawei Translate Services Center(HW-TSC)をWMT24汎用機械翻訳(MT)共有タスクに提出する。
我々は、正規化ドロップアウト、双方向トレーニング、データ多様化、前方翻訳、後方翻訳、交互学習、カリキュラム学習、トランスダクティブアンサンブル学習などのトレーニング戦略を用いて、ニューラルマシン翻訳(NMT)モデルをトレーニングする。
論文 参考訳(メタデータ) (2024-09-23T08:25:37Z) - Better Datastore, Better Translation: Generating Datastores from
Pre-Trained Models for Nearest Neural Machine Translation [48.58899349349702]
Nearest Neighbor Machine Translation (kNNMT)は、トークンレベルの近接した近接検索機構を備えた、ニューラルネットワーク翻訳(NMT)の簡易かつ効果的な方法である。
本稿では,kNN-MTにおけるデータストアの事前学習モデルを活用するフレームワークであるPreDを提案する。
論文 参考訳(メタデータ) (2022-12-17T08:34:20Z) - Data Selection Curriculum for Neural Machine Translation [31.55953464971441]
NMTモデルのための2段階のカリキュラムトレーニングフレームワークを提案する。
我々は、事前学習法とオンラインスコアを用いた決定論的スコアリングの両方によって選択されたデータのサブセットに基づいてベースNMTモデルを微調整する。
我々のカリキュラム戦略は、常により良い品質(+2.2BLEUの改善)とより高速な収束を示すことを示した。
論文 参考訳(メタデータ) (2022-03-25T19:08:30Z) - Language Modeling, Lexical Translation, Reordering: The Training Process
of NMT through the Lens of Classical SMT [64.1841519527504]
ニューラルマシン翻訳は、翻訳プロセス全体をモデル化するために、単一のニューラルネットワークを使用する。
ニューラルネットワーク翻訳はデファクトスタンダードであるにもかかわらず、NMTモデルがトレーニングの過程でどのように異なる能力を獲得するのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2021-09-03T09:38:50Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Alternated Training with Synthetic and Authentic Data for Neural Machine
Translation [49.35605028467887]
ニューラルマシン翻訳(NMT)のための合成および認証データを用いた交互トレーニングを提案する。
従来の研究と比較して,ノイズの多い合成データによってNMTモデルのトレーニングが妨げられるのを防止するためのガイダンスとして,認証データを導入している。
中国語・ドイツ語・英語の翻訳タスクの実験は、我々のアプローチがいくつかの強いベースラインにまたがって性能を向上させることを示している。
論文 参考訳(メタデータ) (2021-06-16T07:13:16Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Self-supervised and Supervised Joint Training for Resource-rich Machine
Translation [30.502625878505732]
テキスト表現の自己教師付き事前学習が低リソースニューラルネットワーク翻訳(NMT)に成功している
我々は,NMTモデルを最適化するために,自己教師付き学習と教師付き学習を組み合わせた共同学習手法である$F$-XEnDecを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:35:40Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。