論文の概要: Neural Syntactic Preordering for Controlled Paraphrase Generation
- arxiv url: http://arxiv.org/abs/2005.02013v1
- Date: Tue, 5 May 2020 09:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:58:52.332149
- Title: Neural Syntactic Preordering for Controlled Paraphrase Generation
- Title(参考訳): 制御されたパラフレーズ生成のためのニューラルシンタクティックプレオーダー
- Authors: Tanya Goyal and Greg Durrett
- Abstract要約: 私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
- 参考スコア(独自算出の注目度): 57.5316011554622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Paraphrasing natural language sentences is a multifaceted process: it might
involve replacing individual words or short phrases, local rearrangement of
content, or high-level restructuring like topicalization or passivization. Past
approaches struggle to cover this space of paraphrase possibilities in an
interpretable manner. Our work, inspired by pre-ordering literature in machine
translation, uses syntactic transformations to softly "reorder'' the source
sentence and guide our neural paraphrasing model. First, given an input
sentence, we derive a set of feasible syntactic rearrangements using an
encoder-decoder model. This model operates over a partially lexical, partially
syntactic view of the sentence and can reorder big chunks. Next, we use each
proposed rearrangement to produce a sequence of position embeddings, which
encourages our final encoder-decoder paraphrase model to attend to the source
words in a particular order. Our evaluation, both automatic and human, shows
that the proposed system retains the quality of the baseline approaches while
giving a substantial increase in the diversity of the generated paraphrases
- Abstract(参考訳): 自然言語文のパラフレーズ化は多面的プロセスであり、個々の単語や短いフレーズの置き換え、内容の局所的な再構成、あるいはトピック化やパッシブ化のようなハイレベルな再構成を含む。
過去のアプローチは、解釈可能な方法でこのパラフレーズ可能性の空間をカバーするのに苦労した。
私たちの研究は、機械翻訳における事前注文文学にインスパイアされ、構文変換を使用して、原文をソフトに「順序付け」し、ニューラルネットワークのパラフレーズモデルを導きます。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成を導出する。
このモデルは、文の部分的語彙的、部分的構文的ビュー上で動作し、大きなチャンクを並べ替えることができる。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
自動・人両方の評価から,提案システムは,生成したパラフレーズの多様性を著しく向上させつつ,ベースラインアプローチの品質を維持していることが示された。
関連論文リスト
- Neural paraphrasing by automatically crawled and aligned sentence pairs [11.95795974003684]
ニューラルネットワークベースのパラフレーズ化に対する主な障害は、一致した文とパラフレーズのペアを持つ大きなデータセットの欠如である。
本稿では,ニュースサイトやブログサイトが,異なる物語スタイルを用いて同じ出来事を語るという仮定に基づいて,大規模コーパスの自動生成手法を提案する。
本稿では,言語制約のある類似性探索手法を提案する。これは,参照文が与えられた場合,数百万のインデックス付き文から最も類似した候補パラフレーズを見つけることができる。
論文 参考訳(メタデータ) (2024-02-16T10:40:38Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering [88.08581016329398]
文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-09-15T05:53:40Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Vector Quantized Contrastive Predictive Coding for Template-based Music
Generation [0.0]
本稿では,トークンを基本単位に分類できる離散列の変種を生成するフレキシブルな手法を提案する。
本稿では,これらの圧縮表現を用いてテンプレートシーケンスの変動を,Transformerアーキテクチャの適切な注意パターンを用いて生成する方法を示す。
論文 参考訳(メタデータ) (2020-04-21T15:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。