論文の概要: Sentence-Permuted Paragraph Generation
- arxiv url: http://arxiv.org/abs/2104.07228v1
- Date: Thu, 15 Apr 2021 04:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 04:16:40.367415
- Title: Sentence-Permuted Paragraph Generation
- Title(参考訳): 文別段落生成
- Authors: Wenhao Yu, Chenguang Zhu, Tong Zhao, Zhichun Guo, Meng Jiang
- Abstract要約: 既存の生成モデルは同質な文脈から類似した内容を生成する。
提案手法は,複数節のコンテンツの多様性を改善するために文順を並べ替えることである。
PermGenは階層的な位置埋め込みを使用し、トレーニング、デコード、候補ランキングの新しい手順を設計する。
- 参考スコア(独自算出の注目度): 35.57376276716488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating paragraphs of diverse contents is important in many applications.
Existing generation models produce similar contents from homogenized contexts
due to the fixed left-to-right sentence order. Our idea is permuting the
sentence orders to improve the content diversity of multi-sentence paragraph.
We propose a novel framework PermGen whose objective is to maximize the
expected log-likelihood of output paragraph distributions with respect to all
possible sentence orders. PermGen uses hierarchical positional embedding and
designs new procedures for training, decoding, and candidate ranking in the
sentence-permuted generation. Experiments on three paragraph generation
benchmarks demonstrate PermGen generates more diverse outputs with a higher
quality than existing models.
- Abstract(参考訳): 多様な内容の項を生成することは、多くの応用において重要である。
既存の生成モデルは、固定された左右の文順によって、均質化された文脈から類似した内容を生成する。
提案手法は,複数節のコンテンツの多様性を改善するために文順を並べ替えることである。
本稿では,全ての文順序について,出力段落分布のログ類似度を最大化することを目的とした新しいフレームワークPermGenを提案する。
PermGenは階層的な位置埋め込みを使用し、文置換世代におけるトレーニング、デコード、候補ランキングの新しい手順を設計する。
3段落生成ベンチマークの実験は、PermGenが既存のモデルよりも高い品質でより多様な出力を生成することを示した。
関連論文リスト
- DimonGen: Diversified Generative Commonsense Reasoning for Explaining
Concept Relationships [8.54878522152325]
DimonGenは、さまざまな日常シナリオで概念関係を記述する多様な文を生成することを目的としている。
まず、既存のCommonGenデータセットを適用することで、このタスクのベンチマークデータセットを作成します。
次に、ターゲット文を生成するためにMoREEと呼ばれる2段階モデルを提案する。
論文 参考訳(メタデータ) (2022-12-20T18:50:29Z) - PLANET: Dynamic Content Planning in Autoregressive Transformers for
Long-form Text Generation [47.97523895218194]
本稿では,自己回帰型自己認識機構を利用してコンテンツ計画と表面実現を動的に行う新しい生成フレームワークを提案する。
本フレームワークは,単語のバッグをベースとした文レベルのセマンティックプランを維持するために,トランスフォーマーデコーダを潜在表現で強化する。
論文 参考訳(メタデータ) (2022-03-17T05:52:35Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering [88.08581016329398]
文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-09-15T05:53:40Z) - DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text
Generation [10.477090501569284]
本稿では,少なくとも2つの課題に直面する長文意見テキスト生成の課題について検討する。
既存のニューラルジェネレーションモデルはコヒーレンスに欠けており、効率的なコンテンツプランニングが必要である。
DYPLOCは、混合言語モデルの新しい設計に基づいて出力を生成しながら、コンテンツの動的計画を行う生成フレームワークである。
論文 参考訳(メタデータ) (2021-06-01T20:56:10Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。