論文の概要: SMDT: Selective Memory-Augmented Neural Document Translation
- arxiv url: http://arxiv.org/abs/2201.01631v1
- Date: Wed, 5 Jan 2022 14:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 13:26:21.193000
- Title: SMDT: Selective Memory-Augmented Neural Document Translation
- Title(参考訳): smdt:選択的記憶提示ニューラルドキュメント翻訳
- Authors: Xu Zhang, Jian Yang, Haoyang Huang, Shuming Ma, Dongdong Zhang,
Jinlong Li, Furu Wei
- Abstract要約: 本稿では,文脈の広い仮説空間を含む文書を扱うために,選択的メモリ拡張型ニューラル文書翻訳モデルを提案する。
トレーニングコーパスから類似のバイリンガル文ペアを抽出し,グローバルな文脈を拡大する。
ローカルなコンテキストと多様なグローバルなコンテキストをキャプチャする選択的なメカニズムで、2ストリームのアテンションモデルを拡張する。
- 参考スコア(独自算出の注目度): 53.4627288890316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing document-level neural machine translation (NMT) models have
sufficiently explored different context settings to provide guidance for target
generation. However, little attention is paid to inaugurate more diverse
context for abundant context information. In this paper, we propose a Selective
Memory-augmented Neural Document Translation model to deal with documents
containing large hypothesis space of the context. Specifically, we retrieve
similar bilingual sentence pairs from the training corpus to augment global
context and then extend the two-stream attention model with selective mechanism
to capture local context and diverse global contexts. This unified approach
allows our model to be trained elegantly on three publicly document-level
machine translation datasets and significantly outperforms previous
document-level NMT models.
- Abstract(参考訳): 既存の文書レベルのニューラルネットワーク翻訳(NMT)モデルでは、ターゲット生成のためのガイダンスを提供するために、コンテキスト設定が十分に検討されている。
しかし,より多様な文脈情報の提供にはほとんど注意が払われていない。
本稿では,文脈の大きな仮説空間を含む文書を扱うために,選択的メモリ拡張ニューラル文書翻訳モデルを提案する。
具体的には、トレーニングコーパスから類似したバイリンガル文ペアを検索し、グローバルコンテキストを拡大し、2ストリームアテンションモデルを拡張し、ローカルコンテキストと多様なグローバルコンテキストをキャプチャする選択的なメカニズムで拡張する。
この統一的なアプローチにより、我々のモデルは3つの公開文書レベルの機械翻訳データセットでエレガントに訓練され、従来の文書レベルのNMTモデルよりも大幅に向上する。
関連論文リスト
- A Case Study on Context-Aware Neural Machine Translation with Multi-Task Learning [49.62044186504516]
文書レベルのニューラルネットワーク翻訳(DocNMT)では、コンテクストやソース文のエンコーディングにおいてマルチエンコーダアプローチが一般的である。
近年の研究では、コンテキストエンコーダがノイズを発生させ、コンテキストの選択に頑健なモデルを実現することが示されている。
本稿では、マルチタスク学習(MTL)を通してコンテキストエンコーディングを明示的にモデル化することで、コンテキスト選択に敏感なモデルを実現することにより、この観察をさらに検討する。
論文 参考訳(メタデータ) (2024-07-03T12:50:49Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Context-Adaptive Document-Level Neural Machine Translation [1.52292571922932]
モデルが必要かつ有用なコンテキストを適用できるようにするデータ適応メソッドを紹介します。
実験によれば、提案手法は1.99 bleu ポイントのゲインで従来の手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-04-16T17:43:58Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Capturing document context inside sentence-level neural machine
translation models with self-training [5.129814362802968]
文書レベルのニューラルマシン翻訳は、文レベルの翻訳よりもあまり注目されず、遅れを取っている。
本稿では,並列文書レベルのコーパス上で,特殊なモデルを訓練する必要のない手法を提案する。
我々のアプローチは、モデルによる選択を強化するため、文書内の他の文で同じ選択がされる可能性が高くなる。
論文 参考訳(メタデータ) (2020-03-11T12:36:17Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。