論文の概要: Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence
- arxiv url: http://arxiv.org/abs/2105.08963v1
- Date: Wed, 19 May 2021 07:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:53:19.191110
- Title: Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence
- Title(参考訳): 文レベルと談話レベルコヒーレンスをモデル化した長文生成
- Authors: Jian Guan, Xiaoxi Mao, Changjie Fan, Zitao Liu, Wenbiao Ding, Minlie
Huang
- Abstract要約: 本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
- 参考スコア(独自算出の注目度): 59.51720326054546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating long and coherent text is an important but challenging task,
particularly for open-ended language generation tasks such as story generation.
Despite the success in modeling intra-sentence coherence, existing generation
models (e.g., BART) still struggle to maintain a coherent event sequence
throughout the generated text. We conjecture that this is because of the
difficulty for the decoder to capture the high-level semantics and discourse
structures in the context beyond token-level co-occurrence. In this paper, we
propose a long text generation model, which can represent the prefix sentences
at sentence level and discourse level in the decoding process. To this end, we
propose two pretraining objectives to learn the representations by predicting
inter-sentence semantic similarity and distinguishing between normal and
shuffled sentence orders. Extensive experiments show that our model can
generate more coherent texts than state-of-the-art baselines.
- Abstract(参考訳): 長く一貫性のあるテキストを生成することは重要なタスクであるが、特にストーリー生成のようなオープンな言語生成タスクでは難しい課題である。
文内コヒーレンスをモデル化することに成功したにもかかわらず、既存の世代モデル(例えばBART)は生成したテキスト全体を通してコヒーレントなイベントシーケンスを維持するのに苦戦している。
これは、デコーダがトークンレベルの共起を超えてコンテキスト内の高レベルセマンティクスと談話構造を捉えることが難しいためであると推測する。
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
そこで本研究では,文間のセマンティックな類似性を予測し,正規文とシャッフル文の順序を区別することにより,表現を学習するための2つの事前学習目標を提案する。
広範な実験により,本モデルは最先端のベースラインよりもコヒーレントなテキストを生成することができることが示された。
関連論文リスト
- Sequentially Controlled Text Generation [97.22539956688443]
GPT-2は、驚くほど人間らしく、長い文書が混ざり合ったり、人間のような文章構造に従わなかったりする文を生成する。
本研究では,長距離テキストにおける命令構造の問題について検討する。
生成と編集が可能な逐次制御型テキスト生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-01-05T21:23:51Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - PLANET: Dynamic Content Planning in Autoregressive Transformers for
Long-form Text Generation [47.97523895218194]
本稿では,自己回帰型自己認識機構を利用してコンテンツ計画と表面実現を動的に行う新しい生成フレームワークを提案する。
本フレームワークは,単語のバッグをベースとした文レベルのセマンティックプランを維持するために,トランスフォーマーデコーダを潜在表現で強化する。
論文 参考訳(メタデータ) (2022-03-17T05:52:35Z) - Discontinuous Grammar as a Foreign Language [0.7412445894287709]
構成解析のためのシーケンス・ツー・シーケンス・モデルの枠組みを拡張した。
我々は不連続性を完全に生成できるいくつかの新規化を設計する。
提案手法はまず,主要な不連続なベンチマーク上でシーケンス・ツー・シーケンス・モデルをテストする。
論文 参考訳(メタデータ) (2021-10-20T08:58:02Z) - DiscoDVT: Generating Long Text with Discourse-Aware Discrete Variational
Transformer [40.10695204278747]
本稿では,不整合問題に対処する談話対応離散変分変換器DiscoDVTを提案する。
本研究では、2つのオープンなストーリー生成データセットについて広範な実験を行い、より長い範囲のコヒーレンスを持つ長文を生成するためにモデルを導く談話構造に対して有意義な対応を学習していることを示す。
論文 参考訳(メタデータ) (2021-10-12T13:41:06Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。