論文の概要: Contrastive Learning for Context-aware Neural Machine TranslationUsing
Coreference Information
- arxiv url: http://arxiv.org/abs/2109.05712v1
- Date: Mon, 13 Sep 2021 05:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:47:12.713029
- Title: Contrastive Learning for Context-aware Neural Machine TranslationUsing
Coreference Information
- Title(参考訳): コリファレンス情報を用いた文脈認識型ニューラルマシンのコントラスト学習
- Authors: Yongkeun Hwang, Hyungu Yun, Kyomin Jung
- Abstract要約: ソース文と文脈文のコア参照に基づく新しいデータ拡張とコントラスト学習方式であるCorefCLを提案する。
コンテキスト文で検出されたコア参照の言及を自動的に破損させることで、CorefCLはコア参照の不整合に敏感なモデルをトレーニングすることができる。
実験では,英語・ドイツ語・韓国語タスクの比較モデルのBLEUを一貫して改善した。
- 参考スコア(独自算出の注目度): 14.671424999873812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context-aware neural machine translation (NMT) incorporates contextual
information of surrounding texts, that can improve the translation quality of
document-level machine translation. Many existing works on context-aware NMT
have focused on developing new model architectures for incorporating additional
contexts and have shown some promising results. However, most existing works
rely on cross-entropy loss, resulting in limited use of contextual information.
In this paper, we propose CorefCL, a novel data augmentation and contrastive
learning scheme based on coreference between the source and contextual
sentences. By corrupting automatically detected coreference mentions in the
contextual sentence, CorefCL can train the model to be sensitive to coreference
inconsistency. We experimented with our method on common context-aware NMT
models and two document-level translation tasks. In the experiments, our method
consistently improved BLEU of compared models on English-German and
English-Korean tasks. We also show that our method significantly improves
coreference resolution in the English-German contrastive test suite.
- Abstract(参考訳): 文脈認識型ニューラルネットワーク翻訳(NMT)は、周囲のテキストの文脈情報を取り入れ、文書レベルの機械翻訳の翻訳品質を向上させる。
コンテキスト対応NMTに関する多くの既存の研究は、追加のコンテキストを組み込む新しいモデルアーキテクチャの開発に重点を置いており、いくつかの有望な結果を示している。
しかし、既存の作品の多くはクロスエントロピー損失に依存しており、文脈情報の利用は限られている。
本論文では、ソース文と文脈文のコア参照に基づく、新しいデータ拡張およびコントラスト学習方式であるCorefCLを提案する。
コンテキスト文で検出されたコア参照参照を自動的に破損させることで、CorefCLはコア参照の不整合に敏感なモデルをトレーニングすることができる。
一般的な文脈対応NMTモデルと文書レベルの2つの翻訳タスクについて実験を行った。
実験では,英語・ドイツ語・韓国語タスクの比較モデルのBLEUを一貫して改善した。
また,本手法は,英語-ドイツ語のコントラストテストスイートにおけるコア参照分解能を著しく向上することを示した。
関連論文リスト
- A Case Study on Context-Aware Neural Machine Translation with Multi-Task Learning [49.62044186504516]
文書レベルのニューラルネットワーク翻訳(DocNMT)では、コンテクストやソース文のエンコーディングにおいてマルチエンコーダアプローチが一般的である。
近年の研究では、コンテキストエンコーダがノイズを発生させ、コンテキストの選択に頑健なモデルを実現することが示されている。
本稿では、マルチタスク学習(MTL)を通してコンテキストエンコーディングを明示的にモデル化することで、コンテキスト選択に敏感なモデルを実現することにより、この観察をさらに検討する。
論文 参考訳(メタデータ) (2024-07-03T12:50:49Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - MTCue: Learning Zero-Shot Control of Extra-Textual Attributes by
Leveraging Unstructured Context in Neural Machine Translation [3.703767478524629]
これは、すべてのコンテキスト(離散変数を含む)をテキストとして解釈する新しいニューラルネットワーク翻訳(NMT)フレームワークである。
MTCueはコンテキストの抽象的な表現を学び、異なるデータ設定間で転送可能性を実現する。
MTCueは英語のテキストの翻訳において「タグ付け」ベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-25T10:06:08Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - Divide and Rule: Training Context-Aware Multi-Encoder Translation Models
with Little Resources [20.057692375546356]
マルチエンコーダモデルは、文書レベルのコンテキスト情報を現在の文と共にエンコードすることで、翻訳品質の向上を目指しています。
これらのパラメータのトレーニングは、コンテキストのトレーニング信号がスパースしているため、大量のデータを必要とする。
本稿では,並列文集合の訓練信号を豊かにするための,分割文対に基づく効率的な代替手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T15:15:32Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。