論文の概要: Dual Past and Future for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2007.07728v2
- Date: Fri, 17 Jul 2020 03:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 05:46:52.126608
- Title: Dual Past and Future for Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳の過去と未来
- Authors: Jianhao Yan, Fandong Meng, Jie Zhou
- Abstract要約: 我々は、ソース・ツー・ターゲットとターゲット・ツー・ソースのNMTモデルの両方を利用して、過去・未来のモジュールに対してより直接的かつ正確な監視信号を提供する新しいデュアル・フレームワークを提案する。
実験の結果,提案手法はNMT予測の精度を大幅に向上し,従来の手法を2つのよく研究された翻訳タスクで上回っていることがわかった。
- 参考スコア(独自算出の注目度): 51.418245676894465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though remarkable successes have been achieved by Neural Machine Translation
(NMT) in recent years, it still suffers from the inadequate-translation
problem. Previous studies show that explicitly modeling the Past and Future
contents of the source sentence is beneficial for translation performance.
However, it is not clear whether the commonly used heuristic objective is good
enough to guide the Past and Future. In this paper, we present a novel dual
framework that leverages both source-to-target and target-to-source NMT models
to provide a more direct and accurate supervision signal for the Past and
Future modules. Experimental results demonstrate that our proposed method
significantly improves the adequacy of NMT predictions and surpasses previous
methods in two well-studied translation tasks.
- Abstract(参考訳): 近年、ニューラルネットワーク翻訳(NMT)によって顕著な成功を収めているが、まだ不十分な翻訳問題に悩まされている。
先行研究では,文の過去と将来の内容を明示的にモデル化することが翻訳性能に有益であることが示された。
しかし、一般的に使われるヒューリスティックな目的が過去と未来を導くのに十分であるかどうかは定かではない。
本稿では、ソース・ツー・ターゲットとターゲット・トゥ・ソースのNMTモデルの両方を利用して、過去・未来のモジュールに対してより直接的かつ正確な監視信号を提供する新しいデュアルフレームワークを提案する。
実験の結果,提案手法はnmt予測の妥当性を大幅に改善し,2つのよく研究された翻訳タスクにおいて従来の手法を上回った。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution [5.691028372215281]
Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
論文 参考訳(メタデータ) (2023-12-19T20:35:08Z) - Extending Multilingual Machine Translation through Imitation Learning [60.15671816513614]
Imit-MNMTは、タスクを専門家の行動を模倣する模倣学習プロセスとして扱う。
提案手法は,新言語と原言語の翻訳性能を大幅に向上させることを示す。
我々はまた、我々のアプローチがコピーとオフターゲットの問題を解決することができることを示した。
論文 参考訳(メタデータ) (2023-11-14T21:04:03Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Source and Target Bidirectional Knowledge Distillation for End-to-end
Speech Translation [88.78138830698173]
外部テキストベースNMTモデルからのシーケンスレベルの知識蒸留(SeqKD)に注目した。
E2E-STモデルを訓練し、パラフレーズ転写を1つのデコーダで補助タスクとして予測する。
論文 参考訳(メタデータ) (2021-04-13T19:00:51Z) - PheMT: A Phenomenon-wise Dataset for Machine Translation Robustness on
User-Generated Contents [40.25277134147149]
日本語翻訳における特定の言語現象に対するMTシステムの堅牢性を評価するための新しいデータセットであるPheMTを提案する。
作成したデータセットを用いて行った実験では、社内モデルだけでなく、市販のシステムでも、特定の現象の存在によって大きく混乱していることが明らかになりました。
論文 参考訳(メタデータ) (2020-11-04T04:44:47Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - A Comprehensive Survey of Multilingual Neural Machine Translation [22.96845346423759]
我々は多言語ニューラルマシン翻訳(MNMT)について調査する。
MNMTは、機械翻訳の研究のために、エンドツーエンドのモデリングと分散表現が新しい道を開くため、統計機械翻訳よりも有望である。
まず、その中心となるユースケースに基づいて様々なアプローチを分類し、さらにリソースシナリオ、基礎となるモデリング原則、コアイシュー、課題に基づいてそれらを分類します。
論文 参考訳(メタデータ) (2020-01-04T19:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。