論文の概要: Explicit Sentence Compression for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/1912.11980v1
- Date: Fri, 27 Dec 2019 04:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 00:03:35.102308
- Title: Explicit Sentence Compression for Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳のための明示的な文圧縮
- Authors: Zuchao Li, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita,
Zhuosheng Zhang, Hai Zhao
- Abstract要約: State-of-the-the-art Transformer-based Neural Machine Translation (NMT)システムはまだ標準のエンコーダデコーダフレームワークに従っている。
バックボーン情報は 文のギストを表すもので 具体的には 焦点を絞っていません
提案手法は,NMTのソース文表現を強化するための明示的な文圧縮手法である。
- 参考スコア(独自算出の注目度): 110.98786673598016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art Transformer-based neural machine translation (NMT) systems
still follow a standard encoder-decoder framework, in which source sentence
representation can be well done by an encoder with self-attention mechanism.
Though Transformer-based encoder may effectively capture general information in
its resulting source sentence representation, the backbone information, which
stands for the gist of a sentence, is not specifically focused on. In this
paper, we propose an explicit sentence compression method to enhance the source
sentence representation for NMT. In practice, an explicit sentence compression
goal used to learn the backbone information in a sentence. We propose three
ways, including backbone source-side fusion, target-side fusion, and both-side
fusion, to integrate the compressed sentence into NMT. Our empirical tests on
the WMT English-to-French and English-to-German translation tasks show that the
proposed sentence compression method significantly improves the translation
performances over strong baselines.
- Abstract(参考訳): State-of-the-the-art Transformer-based Neural Machine Translation (NMT)システムはまだ標準のエンコーダ・デコーダフレームワークに従っており、ソース文の表現は自己保持機構を備えたエンコーダによってうまく行うことができる。
Transformerベースのエンコーダは、結果のソース文表現における一般的な情報を効果的にキャプチャすることができるが、バックボーン情報(文のギストを表す)は特に焦点を当てていない。
本論文では,NMTのソース文表現を強化するための明示的な文圧縮手法を提案する。
実際には、文のバックボーン情報を学ぶために使われる明示的な文圧縮目標である。
我々は, 圧縮文をNMTに統合するために, バックボーン源側融合, ターゲット側融合, 両サイド融合の3つの方法を提案する。
wmtの英語-フランス語間および英語-ドイツ語間翻訳タスクにおける経験実験の結果,提案手法は,強いベースラインに対する翻訳性能を大幅に向上させることがわかった。
関連論文リスト
- Categorizing Semantic Representations for Neural Machine Translation [53.88794787958174]
ソースの文脈化表現に分類を導入する。
主な考え方は、スパーシリティとオーバーフィッティングを減らして一般化を強化することである。
MTデータセットを用いた実験により,提案手法は構成一般化誤差率を24%削減することを示した。
論文 参考訳(メタデータ) (2022-10-13T04:07:08Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Text Compression-aided Transformer Encoding [77.16960983003271]
本稿では,トランスフォーマーのエンコーディングを強化するために,明示的で暗黙的なテキスト圧縮手法を提案する。
バックボーン情報、つまり入力テキストのgistは、特に焦点を当てていません。
評価の結果,提案した明示的かつ暗黙的なテキスト圧縮手法は,強いベースラインと比較して結果を改善することがわかった。
論文 参考訳(メタデータ) (2021-02-11T11:28:39Z) - Code-switching pre-training for neural machine translation [13.35263905025371]
本稿では,ニューラルマシン翻訳(NMT)のためのコードスイッチング事前学習(CSP)という,新しい事前学習手法を提案する。
入力文の断片をランダムにマスキングする従来の事前学習法とは異なり、提案したCSPはソース文の単語をターゲット言語で翻訳語にランダムに置き換える。
実験結果から, CSPは, 事前訓練や事前訓練を行うことなく, ベースラインの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-17T06:10:07Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。