論文の概要: Context-Adaptive Document-Level Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2104.08259v1
- Date: Fri, 16 Apr 2021 17:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 15:52:13.523417
- Title: Context-Adaptive Document-Level Neural Machine Translation
- Title(参考訳): 文脈適応型文書レベルニューラルネットワーク翻訳
- Authors: Linlin Zhang
- Abstract要約: モデルが必要かつ有用なコンテキストを適用できるようにするデータ適応メソッドを紹介します。
実験によれば、提案手法は1.99 bleu ポイントのゲインで従来の手法よりも大幅に性能が向上する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing document-level neural machine translation (NMT) models leverage
a fixed number of the previous or all global source sentences to handle the
context-independent problem in standard NMT. However, the translating of each
source sentence benefits from various sizes of context, and inappropriate
context may harm the translation performance. In this work, we introduce a
data-adaptive method that enables the model to adopt the necessary and useful
context. Specifically, we introduce a light predictor into two document-level
translation models to select the explicit context. Experiments demonstrate the
proposed approach can significantly improve the performance over the previous
methods with a gain up to 1.99 BLEU points.
- Abstract(参考訳): 既存の文書レベルのニューラルマシン翻訳(NMT)モデルは、標準NMTの文脈に依存しない問題に対処するために、以前のまたはすべてのグローバルソース文の固定数を利用する。
しかし、各文の翻訳は様々な文脈の大きさの利点があり、不適切な文脈は翻訳性能を損なう可能性がある。
そこで本研究では,モデルに必要かつ有用なコンテキストを適用するためのデータ適応手法を提案する。
具体的には、2つの文書レベルの翻訳モデルに光予測器を導入し、明示的な文脈を選択する。
実験によれば、提案手法は1.99 bleu ポイントのゲインで従来の手法よりも大幅に性能が向上する。
関連論文リスト
- HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - SMDT: Selective Memory-Augmented Neural Document Translation [53.4627288890316]
本稿では,文脈の広い仮説空間を含む文書を扱うために,選択的メモリ拡張型ニューラル文書翻訳モデルを提案する。
トレーニングコーパスから類似のバイリンガル文ペアを抽出し,グローバルな文脈を拡大する。
ローカルなコンテキストと多様なグローバルなコンテキストをキャプチャする選択的なメカニズムで、2ストリームのアテンションモデルを拡張する。
論文 参考訳(メタデータ) (2022-01-05T14:23:30Z) - Contrastive Learning for Context-aware Neural Machine TranslationUsing
Coreference Information [14.671424999873812]
ソース文と文脈文のコア参照に基づく新しいデータ拡張とコントラスト学習方式であるCorefCLを提案する。
コンテキスト文で検出されたコア参照の言及を自動的に破損させることで、CorefCLはコア参照の不整合に敏感なモデルをトレーニングすることができる。
実験では,英語・ドイツ語・韓国語タスクの比較モデルのBLEUを一貫して改善した。
論文 参考訳(メタデータ) (2021-09-13T05:18:47Z) - Dynamic Context Selection for Document-level Neural Machine Translation
via Reinforcement Learning [55.18886832219127]
文書レベルの翻訳における動的コンテキストの選択に有効な手法を提案する。
動的文脈文の選択と活用を促進するために,新しい報酬を提案する。
実験により,提案手法は異なるソース文に対して適応的な文脈文を選択することができることが示された。
論文 参考訳(メタデータ) (2020-10-09T01:05:32Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。