論文の概要: Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering
- arxiv url: http://arxiv.org/abs/2109.07095v1
- Date: Wed, 15 Sep 2021 05:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:20:30.673215
- Title: Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering
- Title(参考訳): 文の書き換えと順序変更による文書レベルのパラフレーズ生成
- Authors: Zhe Lin, Yitao Cai and Xiaojun Wan
- Abstract要約: 文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
- 参考スコア(独自算出の注目度): 88.08581016329398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Paraphrase generation is an important task in natural language processing.
Previous works focus on sentence-level paraphrase generation, while ignoring
document-level paraphrase generation, which is a more challenging and valuable
task. In this paper, we explore the task of document-level paraphrase
generation for the first time and focus on the inter-sentence diversity by
considering sentence rewriting and reordering. We propose CoRPG (Coherence
Relationship guided Paraphrase Generation), which leverages graph GRU to encode
the coherence relationship graph and get the coherence-aware representation for
each sentence, which can be used for re-arranging the multiple (possibly
modified) input sentences. We create a pseudo document-level paraphrase dataset
for training CoRPG. Automatic evaluation results show CoRPG outperforms several
strong baseline models on the BERTScore and diversity scores. Human evaluation
also shows our model can generate document paraphrase with more diversity and
semantic preservation.
- Abstract(参考訳): パラフレーズ生成は自然言語処理において重要なタスクである。
以前の研究は文レベルのパラフレーズ生成に重点を置いているが、ドキュメントレベルのパラフレーズ生成は無視している。
本稿では,文書レベルのパラフレーズ生成のタスクを初めて検討し,文の書き換えと順序変更を考慮し,文間多様性に着目した。
本稿では,グラフ gru を利用してコヒーレンス関係グラフを符号化し,各文のコヒーレンス認識表現を得るコーパス(coherence relationship guided paraphrase generation)を提案する。
訓練用擬似文書レベルのパラフレーズデータセットを作成する。
自動評価の結果、CoRPGはBERTSスコアと多様性スコアでいくつかの強力なベースラインモデルを上回っている。
ヒトの評価はまた、より多様性と意味的保存を伴う文書パラファーゼを生成できることを示した。
関連論文リスト
- Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Pushing Paraphrase Away from Original Sentence: A Multi-Round Paraphrase
Generation Approach [97.38622477085188]
パラフレーズの多様性を向上させるためにBTmPG(Back-Translation Guided Multi-round Paraphrase Generation)を提案する。
2つのベンチマークデータセット上でBTmPGを評価する。
論文 参考訳(メタデータ) (2021-09-04T13:12:01Z) - Unsupervised Deep Keyphrase Generation [14.544869226959612]
keyphrase生成は、長い文書を敬語句のコレクションにまとめることを目的としている。
ディープニューラルモデルは、このタスクにおいて顕著な成功を示し、文書から欠落するキーフレーズを予測することができる。
キーフレーズ生成のための新しい手法であるAutoKeyGenについて,人間のアノテーションを介さずに提示する。
論文 参考訳(メタデータ) (2021-04-18T05:53:19Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z) - Unsupervised Paraphrase Generation using Pre-trained Language Models [0.0]
OpenAIのGPT-2は、流動的で、十分に定式化された、文法的に一貫性のあるテキストを生成する能力で有名である。
我々は、GPT-2のこの生成能力を活用し、ラベル付きデータから何の監督も受けずにパラフレーズを生成する。
実験の結果,我々のモデルで生成したパラフレーズは質が良く,多種多様であり,データ拡張に使用する場合のダウンストリームタスク性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-06-09T19:40:19Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。