論文の概要: Modeling Discourse Structure for Document-level Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2006.04721v1
- Date: Mon, 8 Jun 2020 16:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:42:10.644101
- Title: Modeling Discourse Structure for Document-level Neural Machine
Translation
- Title(参考訳): 文書レベルニューラルマシン翻訳のための談話構造モデリング
- Authors: Junxuan Chen, Xiang Li, Jiarui Zhang, Chulun Zhou, Jianwei Cui, Bin
Wang, Jinsong Su
- Abstract要約: 談話構造情報を用いて文書レベルのNMTを改善することを提案する。
具体的には、まず入力文書を解析し、その談話構造を得る。
次にトランスフォーマーベースのパスエンコーダを導入し,各単語の談話構造情報を埋め込む。
最後に、談話構造情報をエンコーダに入力する前に埋め込む単語と組み合わせる。
- 参考スコア(独自算出の注目度): 38.085454497395446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, document-level neural machine translation (NMT) has become a hot
topic in the community of machine translation. Despite its success, most of
existing studies ignored the discourse structure information of the input
document to be translated, which has shown effective in other tasks. In this
paper, we propose to improve document-level NMT with the aid of discourse
structure information. Our encoder is based on a hierarchical attention network
(HAN). Specifically, we first parse the input document to obtain its discourse
structure. Then, we introduce a Transformer-based path encoder to embed the
discourse structure information of each word. Finally, we combine the discourse
structure information with the word embedding before it is fed into the
encoder. Experimental results on the English-to-German dataset show that our
model can significantly outperform both Transformer and Transformer+HAN.
- Abstract(参考訳): 近年,機械翻訳のコミュニティにおいて,文書レベルのニューラルマシン翻訳(NMT)が話題となっている。
その成功にもかかわらず、既存の研究の多くは翻訳すべき入力文書の談話構造情報を無視しており、他のタスクで効果的であることが示されている。
本稿では,談話構造情報を用いて文書レベルのNMTを改善することを提案する。
我々のエンコーダは階層型アテンションネットワーク(han)に基づいている。
具体的には、まず入力文書を解析してその談話構造を得る。
次に,各単語の談話構造情報をエンコードするトランスベースのパスエンコーダを提案する。
最後に、談話構造情報をエンコーダに入力する前に埋め込む単語と組み合わせる。
英語とドイツ語のデータセットによる実験結果から,我々のモデルはTransformerとTransformer+HANのどちらよりも優れていることがわかった。
関連論文リスト
- On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Structural Biases for Improving Transformers on Translation into
Morphologically Rich Languages [120.74406230847904]
TP-Transformerは従来のTransformerアーキテクチャを拡張し、構造を表現するコンポーネントを追加する。
第2の方法は、形態的トークン化でデータをセグメント化することで、データレベルで構造を付与する。
これらの2つのアプローチのそれぞれが、ネットワークがより良いパフォーマンスを達成することを可能にすることは分かっていますが、この改善はデータセットのサイズに依存します。
論文 参考訳(メタデータ) (2022-08-11T22:42:24Z) - Going Full-TILT Boogie on Document Understanding with Text-Image-Layout
Transformer [0.6702423358056857]
本稿では,レイアウト情報,視覚特徴,テキスト意味論を同時に学習するtiltニューラルネットワークアーキテクチャを紹介する。
私たちは、テーブル、数字、フォームなど、さまざまなレイアウトの実際の文書のネットワークを訓練しました。
論文 参考訳(メタデータ) (2021-02-18T18:51:47Z) - Transition based Graph Decoder for Neural Machine Translation [41.7284715234202]
本稿では,木とグラフのデコーディングをトランジションのシーケンス生成に基づいて一般化したトランスフォーマーベースのアプローチを提案する。
標準のTransformerデコーダよりも性能が向上し,モデルの短縮バージョンも向上した。
論文 参考訳(メタデータ) (2021-01-29T15:20:45Z) - Document Graph for Neural Machine Translation [42.13593962963306]
文書は, 距離に関係なく, 関連コンテキストを関連づけるグラフとして表現できることを示す。
IWSLT English- French, Chinese- English, WMT English-German and Opensubtitle English- Russian などの様々なNMTベンチマークの実験では、文書グラフの使用により翻訳品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-12-07T06:48:59Z) - Context-aware Decoder for Neural Machine Translation using a Target-side
Document-Level Language Model [12.543106304662059]
本稿では,文書レベルの言語モデルをデコーダに組み込むことで,文レベルの翻訳モデルを文脈認識モデルに変換する手法を提案する。
我々のデコーダは文レベルのパラレルコーパスとモノリンガルコーパスのみに基づいて構築されている。
理論的観点からは、この研究の核となる部分は、文脈と現在の文間のポイントワイドな相互情報を用いた文脈情報の新しい表現である。
論文 参考訳(メタデータ) (2020-10-24T08:06:18Z) - Diving Deep into Context-Aware Neural Machine Translation [36.17847243492193]
本稿では,4つの領域における文書レベルのNMTモデルの性能を解析する。
ドキュメントレベルのNMTに最適なアプローチはひとつもありません。
論文 参考訳(メタデータ) (2020-10-19T13:23:12Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。