論文の概要: Dual Reconstruction: a Unifying Objective for Semi-Supervised Neural
Machine Translation
- arxiv url: http://arxiv.org/abs/2010.03412v1
- Date: Wed, 7 Oct 2020 13:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:08:32.602801
- Title: Dual Reconstruction: a Unifying Objective for Semi-Supervised Neural
Machine Translation
- Title(参考訳): dual reconstruction: 半教師付きニューラルマシン翻訳のための統一目的
- Authors: Weijia Xu, Xing Niu, Marine Carpuat
- Abstract要約: 反復的バックトランスレーションとデュアルラーニングは、ニューラルネットワーク翻訳にモノリンガルトレーニングデータを効果的に取り入れ、異なる目的と勾配近似戦略を用いており、広範囲に比較されていない。
本稿では,反復的バックトランスレーションとデュアルラーニングの統一的な視点を提供する,新しい二重再構成手法を提案する。
- 参考スコア(独自算出の注目度): 32.99075556718486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Iterative Back-Translation and Dual Learning effectively incorporate
monolingual training data in neural machine translation, they use different
objectives and heuristic gradient approximation strategies, and have not been
extensively compared. We introduce a novel dual reconstruction objective that
provides a unified view of Iterative Back-Translation and Dual Learning. It
motivates a theoretical analysis and controlled empirical study on
German-English and Turkish-English tasks, which both suggest that Iterative
Back-Translation is more effective than Dual Learning despite its relative
simplicity.
- Abstract(参考訳): Iterative Back-Translation and Dual Learningは、ニューラルネットワーク翻訳にモノリンガルトレーニングデータを効果的に組み込むが、それらは異なる目的とヒューリスティック勾配近似戦略を用いており、広範囲に比較されていない。
本稿では,反復的なバックトランスレーションと二重学習の統一的な視点を提供する,新しい二重再構成目標を提案する。
理論的な分析と、ドイツ英語とトルコ英語のタスクに関する経験的研究を動機付けており、両者とも、相対的な単純さにもかかわらず、反復的なバックトランスレーションは二重学習よりも効果的であることを示唆している。
関連論文リスト
- DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms [43.148203559785095]
自己回帰によって強化された大規模言語モデル(LLM)は機械翻訳において有望な性能を達成した。
既存の自己回帰法には効果的なフィードバック情報がなく、翻訳性能が制限されている。
本稿では,翻訳タスクの二重学習を利用して効果的なフィードバックを提供するREFLECTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:10:39Z) - Detection and Positive Reconstruction of Cognitive Distortion sentences: Mandarin Dataset and Evaluation [22.070611256611635]
本研究は、ポジティブ心理学理論に基づくポジティブリコンストラクションフレームワークを紹介する。
認知的歪みを検出するための4001のインスタンスと、マンダリンの肯定的な再構成のための1900のインスタンスを含むコーパスを提供する。
論文 参考訳(メタデータ) (2024-05-24T08:17:20Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Contrastive Instruction-Trajectory Learning for Vision-Language
Navigation [66.16980504844233]
視覚言語ナビゲーション(VLN)タスクでは、エージェントが自然言語の指示でターゲットに到達する必要がある。
先行研究は、命令-軌道対間の類似点と相違点を識別できず、サブ命令の時間的連続性を無視する。
本稿では、類似したデータサンプル間の分散と、異なるデータサンプル間の分散を探索し、ロバストなナビゲーションのための独特な表現を学習するContrastive Instruction-Trajectory Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T06:32:52Z) - Machine Translation of Low-Resource Indo-European Languages [7.113332213566949]
翻訳性能にどのような効果をもたらすかを研究するために,2つのシステムを構築した。
一次システムは関連する言語対で事前訓練された機械翻訳モデルを採用し、対照的なシステムは無関係な言語対で事前訓練された機械翻訳モデルを採用する。
論文 参考訳(メタデータ) (2021-08-08T21:41:08Z) - Two-Way Neural Machine Translation: A Proof of Concept for Bidirectional
Translation Modeling using a Two-Dimensional Grid [47.39346022004215]
本稿では,2次元グリッドを用いた一対一の双方向翻訳モデルを提案する。
2つのモデルを個別に訓練する代わりに、我々のアプローチは1つのネットワークが両方向の翻訳を共同で学習することを奨励する。
論文 参考訳(メタデータ) (2020-11-24T15:42:32Z) - Self-Paced Learning for Neural Machine Translation [55.41314278859938]
ニューラルネットワーク翻訳(NMT)訓練のためのセルフペースト学習を提案する。
提案モデルでは,強いベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-10-09T11:33:16Z) - A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards [40.17497211507507]
言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
論文 参考訳(メタデータ) (2020-06-27T21:51:38Z) - Dual Learning: Theoretical Study and an Algorithmic Extension [168.0485041314289]
本稿では,新たな領域からのフィードバック信号を活用してマッピングの質を向上させる多段階二重学習を提案する。
マルチステップのデュアルラーニングは、穏やかな条件下での標準的なデュアルラーニングの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-05-17T12:14:35Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z) - Reference Language based Unsupervised Neural Machine Translation [108.64894168968067]
教師なしの神経機械翻訳は ほぼ完全に パラレルコーパスの呪いを和らげる
我々はUNMTのための新しい参照言語ベースのフレームワークであるRUNMTを提案し、参照言語はソースと並列コーパスを共有するのみである。
実験の結果,一つの補助言語のみを用いる強いベースラインよりもUNMTの品質が向上することが確認された。
論文 参考訳(メタデータ) (2020-04-05T08:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。