論文の概要: Explicit Reordering for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2004.03818v1
- Date: Wed, 8 Apr 2020 05:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:10:47.756675
- Title: Explicit Reordering for Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳のための明示的な再順序付け
- Authors: Kehai Chen, Rui Wang, Masao Utiyama, and Eiichiro Sumita
- Abstract要約: Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 50.70683739103066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Transformer-based neural machine translation (NMT), the positional
encoding mechanism helps the self-attention networks to learn the source
representation with order dependency, which makes the Transformer-based NMT
achieve state-of-the-art results for various translation tasks. However,
Transformer-based NMT only adds representations of positions sequentially to
word vectors in the input sentence and does not explicitly consider reordering
information in this sentence. In this paper, we first empirically investigate
the relationship between source reordering information and translation
performance. The empirical findings show that the source input with the target
order learned from the bilingual parallel dataset can substantially improve
translation performance. Thus, we propose a novel reordering method to
explicitly model this reordering information for the Transformer-based NMT. The
empirical results on the WMT14 English-to-German, WAT ASPEC
Japanese-to-English, and WMT17 Chinese-to-English translation tasks show the
effectiveness of the proposed approach.
- Abstract(参考訳): Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己認識ネットワークが順序依存でソース表現を学習するのに役立つため、Transformer-based NMTは様々な翻訳タスクに対して最先端の結果を得る。
しかし、トランスフォーマーベースのnmtは、入力文中の単語ベクトルに順次位置の表現を追加するだけで、この文における再順序付け情報を明示的に考慮しない。
本稿では,まず,ソースリオーダ情報と翻訳性能の関係を実証的に検討する。
実験の結果,二言語並列データセットから学習した目標順序のソース入力により,翻訳性能が大幅に向上することがわかった。
そこで本稿では,Transformer ベースの NMT に対して,このリオーダー情報を明示的にモデル化する新しいリオーダー手法を提案する。
WMT14,WAT ASPEC日本語訳,WMT17中国語訳の実証結果は,提案手法の有効性を示している。
関連論文リスト
- Learning Homographic Disambiguation Representation for Neural Machine
Translation [20.242134720005467]
ニューラル・マシン・トランスレーション(NMT)において、同じ綴りだが異なる意味を持つ単語であるホモグラフは依然として困難である
我々は、潜伏空間におけるNMT問題に取り組むための新しいアプローチを提案する。
まず、自然言語推論(NLI)タスクで普遍的な文表現を学ぶために、エンコーダ(別名ホモグラフィックエンコーダ)を訓練する。
さらに、ホモグラフベースの合成WordNetを用いてエンコーダを微調整し、文から単語集合表現を学習する。
論文 参考訳(メタデータ) (2023-04-12T13:42:59Z) - Towards Reliable Neural Machine Translation with Consistency-Aware
Meta-Learning [24.64700139151659]
現在のニューラル機械翻訳(NMT)システムは信頼性の欠如に悩まされている。
本稿では,モデルに依存しないメタラーニング(MAML)アルゴリズムをベースとした,一貫性を考慮したメタラーニング(CAML)フレームワークを提案する。
我々は、NIST中国語から英語へのタスク、3つのWMT翻訳タスク、TED M2Oタスクについて実験を行った。
論文 参考訳(メタデータ) (2023-03-20T09:41:28Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Towards Opening the Black Box of Neural Machine Translation: Source and
Target Interpretations of the Transformer [1.8594711725515678]
ニューラルネットワーク翻訳(NMT)では、各トークン予測はソース文とターゲットプレフィックスに条件付けされる。
NMTにおける解釈可能性に関するこれまでの研究は、原文トークンの属性のみに焦点を当ててきた。
本稿では,完全な入力トークン属性を追跡する解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T20:59:14Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Neural Machine Translation: Challenges, Progress and Future [62.75523637241876]
機械翻訳(英: Machine translation, MT)は、コンピュータを利用して人間の言語を自動翻訳する技術である。
ニューラルマシン翻訳(NMT)は、ディープニューラルネットワークを用いたソース言語とターゲット言語間の直接マッピングをモデル化する。
この記事では、NMTフレームワークをレビューし、NMTの課題について論じ、最近のエキサイティングな進歩を紹介します。
論文 参考訳(メタデータ) (2020-04-13T07:53:57Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Explicit Sentence Compression for Neural Machine Translation [110.98786673598016]
State-of-the-the-art Transformer-based Neural Machine Translation (NMT)システムはまだ標準のエンコーダデコーダフレームワークに従っている。
バックボーン情報は 文のギストを表すもので 具体的には 焦点を絞っていません
提案手法は,NMTのソース文表現を強化するための明示的な文圧縮手法である。
論文 参考訳(メタデータ) (2019-12-27T04:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。