論文の概要: Two-Way Neural Machine Translation: A Proof of Concept for Bidirectional
Translation Modeling using a Two-Dimensional Grid
- arxiv url: http://arxiv.org/abs/2011.12165v1
- Date: Tue, 24 Nov 2020 15:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:16:42.718616
- Title: Two-Way Neural Machine Translation: A Proof of Concept for Bidirectional
Translation Modeling using a Two-Dimensional Grid
- Title(参考訳): 二方向ニューラルマシン翻訳:二次元格子を用いた双方向翻訳モデルの概念の証明
- Authors: Parnia Bahar, Christopher Brix and Hermann Ney
- Abstract要約: 本稿では,2次元グリッドを用いた一対一の双方向翻訳モデルを提案する。
2つのモデルを個別に訓練する代わりに、我々のアプローチは1つのネットワークが両方向の翻訳を共同で学習することを奨励する。
- 参考スコア(独自算出の注目度): 47.39346022004215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural translation models have proven to be effective in capturing sufficient
information from a source sentence and generating a high-quality target
sentence. However, it is not easy to get the best effect for bidirectional
translation, i.e., both source-to-target and target-to-source translation using
a single model. If we exclude some pioneering attempts, such as multilingual
systems, all other bidirectional translation approaches are required to train
two individual models. This paper proposes to build a single end-to-end
bidirectional translation model using a two-dimensional grid, where the
left-to-right decoding generates source-to-target, and the bottom-to-up
decoding creates target-to-source output. Instead of training two models
independently, our approach encourages a single network to jointly learn to
translate in both directions. Experiments on the WMT 2018
German$\leftrightarrow$English and Turkish$\leftrightarrow$English translation
tasks show that the proposed model is capable of generating a good translation
quality and has sufficient potential to direct the research.
- Abstract(参考訳): ニューラル翻訳モデルは、ソース文から十分な情報を取得し、高品質のターゲット文を生成するのに有効であることが証明されている。
しかし、双方向翻訳に最適な効果を得るのは容易ではない。すなわち、1つのモデルを使って、ソース間およびターゲット間の両方の翻訳を行う。
多言語システムのような先駆的な試みを除外すれば、他の全ての双方向翻訳アプローチは2つの個別モデルを訓練する必要がある。
本稿では,左から右へのデコーディングがソースツーターゲットを生成し,ボトム・トゥ・アップデコーディングがターゲットからソースへの出力を生成する2次元グリッドを用いて,エンドツーエンドの双方向翻訳モデルを構築することを提案する。
2つのモデルを個別に訓練する代わりに、我々のアプローチは1つのネットワークが両方向の翻訳を共同で学習することを奨励する。
WMT 2018ドイツ語$\leftrightarrow$ Englishとトルコ語$\leftrightarrow$ Englishに関する実験は、提案されたモデルが優れた翻訳品質を生成でき、研究を指揮する十分な可能性を持っていることを示している。
関連論文リスト
- Relay Decoding: Concatenating Large Language Models for Machine Translation [21.367605327742027]
我々はRD(Relay Decoding)と呼ばれる革新的なアプローチを提案し、ソースとターゲット言語を個別にサポートする2つの異なる大規模モデルを結合する。
これら2つのモデル間の接続を容易にするための単純なマッピング層を導入し、訓練に限られた並列データを活用することにより、機械翻訳タスクにおいて優れた結果が得られた。
論文 参考訳(メタデータ) (2024-05-05T13:42:25Z) - Duplex Diffusion Models Improve Speech-to-Speech Translation [1.4649095013539173]
音声から音声への翻訳は、自然に2つの方向を持つシーケンスからシーケンスまでの学習タスクである。
両面に拡散確率モデルを適用した2相拡散モデルを提案する。
我々のモデルは、入力と出力の端を反転させることで、可逆的な音声翻訳を可能にする。
論文 参考訳(メタデータ) (2023-05-22T01:39:40Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Improving Neural Machine Translation by Bidirectional Training [85.64797317290349]
我々は、ニューラルネットワーク翻訳のためのシンプルで効果的な事前学習戦略である双方向トレーニング(BiT)を提案する。
具体的には、初期モデルのパラメータを双方向に更新し、正常にモデルを調整する。
実験の結果,BiTは8つの言語対上の15の翻訳タスクに対して,SOTAニューラルマシン翻訳性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:58:33Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Bilingual alignment transfers to multilingual alignment for unsupervised
parallel text mining [3.4519649635864584]
本研究は、ペアまたはペアなしのバイリンガルテキストを用いた言語間表現の学習手法を提案する。
我々は、言語間アライメント戦略は転送可能であり、2つの言語のみをアライメントするように訓練されたモデルは、多言語的によりアライメントされた表現を符号化できると仮定する。
論文 参考訳(メタデータ) (2021-04-15T17:51:22Z) - Source and Target Bidirectional Knowledge Distillation for End-to-end
Speech Translation [88.78138830698173]
外部テキストベースNMTモデルからのシーケンスレベルの知識蒸留(SeqKD)に注目した。
E2E-STモデルを訓練し、パラフレーズ転写を1つのデコーダで補助タスクとして予測する。
論文 参考訳(メタデータ) (2021-04-13T19:00:51Z) - A Hybrid Approach for Improved Low Resource Neural Machine Translation
using Monolingual Data [0.0]
多くの言語ペアは低リソースであるため、利用可能な並列データの量や品質は、ニューラルネットワーク翻訳(NMT)モデルをトレーニングするのに十分ではない。
本研究は, 後方モデルと前方モデルの両方が単言語的対象データから恩恵を受けられるような, 新たなアプローチを提案する。
論文 参考訳(メタデータ) (2020-11-14T22:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。