論文の概要: Consistency and Coherency Enhanced Story Generation
- arxiv url: http://arxiv.org/abs/2010.08822v1
- Date: Sat, 17 Oct 2020 16:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 11:46:50.763164
- Title: Consistency and Coherency Enhanced Story Generation
- Title(参考訳): 一貫性と一貫性の強化されたストーリー生成
- Authors: Wei Wang, Piji Li, Hai-Tao Zheng
- Abstract要約: 生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
- 参考スコア(独自算出の注目度): 35.08911595854691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Story generation is a challenging task, which demands to maintain consistency
of the plots and characters throughout the story. Previous works have shown
that GPT2, a large-scale language model, has achieved good performance on story
generation. However, we observe that several serious issues still exist in the
stories generated by GPT2 which can be categorized into two folds: consistency
and coherency. In terms of consistency, on one hand, GPT2 cannot guarantee the
consistency of the plots explicitly. On the other hand, the generated stories
usually contain coreference errors. In terms of coherency, GPT2 does not take
account of the discourse relations between sentences of stories directly. To
enhance the consistency and coherency of the generated stories, we propose a
two-stage generation framework, where the first stage is to organize the story
outline which depicts the story plots and events, and the second stage is to
expand the outline into a complete story. Therefore the plots consistency can
be controlled and guaranteed explicitly. In addition, coreference supervision
signals are incorporated to reduce coreference errors and improve the
coreference consistency. Moreover, we design an auxiliary task of discourse
relation modeling to improve the coherency of the generated stories.
Experimental results on a story dataset show that our model outperforms the
baseline approaches in terms of both automatic metrics and human evaluation.
- Abstract(参考訳): ストーリー生成は難題であり、ストーリー全体を通してプロットとキャラクターの一貫性を維持することを要求する。
以前の研究では、大規模言語モデルであるGPT2が、ストーリー生成において優れたパフォーマンスを達成したことが示されている。
しかし、GPT2が生成したストーリーには、一貫性と一貫性の2つに分類できる深刻な問題がいくつか残っている。
一貫性の面では、GPT2はプロットの整合性を明確に保証することはできない。
一方、生成されたストーリーは通常、コア参照エラーを含む。
一貫性に関しては、GPT2は物語の文間の談話関係を直接考慮していない。
生成したストーリーの一貫性と一貫性を高めるため,第1段はストーリーのプロットとイベントを表現したストーリー概要を整理し,第2段はアウトラインを完全なストーリーに拡張する2段階生成フレームワークを提案する。
したがって、プロットの一貫性は明示的に制御され保証される。
さらに、コリファレンスエラーを低減し、コリファレンス一貫性を向上させるために、コリファレンス監視信号が組み込まれている。
さらに,生成したストーリの一貫性を改善するために,談話関係モデリングの補助タスクを設計する。
ストーリーデータセットの実験結果から,我々のモデルは,自動測定と人的評価の両方の観点から,ベースラインアプローチよりも優れていた。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Advancing Precise Outline-Conditioned Text Generation with Task Duality
and Explicit Outline Control [15.881568820009797]
そこで我々は,Precise Outline-conditioned Generationと呼ばれる新しいテキスト生成タスクを導入する。
このタスクは、特定の文レベルのアウトラインに基づいてストーリーを生成する必要がある。
本稿では,要約と生成のタスク双対性を生かした,明示的なアウトライン利用制御手法と新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T18:33:52Z) - Re3: Generating Longer Stories With Recursive Reprompting and Revision [83.99558005056817]
我々は,2千語以上の長文を自動生成する問題を考察する。
短いストーリーの以前の作業と比較して、長距離プロットのコヒーレンスと関連性は、ここではより中心的な課題である。
本稿では,これらの課題に対処するRecursive Reprompting and Revision framework(Re3)を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:29:57Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z) - Every picture tells a story: Image-grounded controllable stylistic story
generation [39.468435527606985]
本稿では,Platform-and-Play Story Teller (PPST)を導入し,画像からストーリー生成を改善する。
我々は,ノンスタイル,ロマンススタイル,アクションスタイルのPPSTアプローチを用いて,イメージ・ツー・ストーリー生成実験を行う。
その結果,PPSTはストーリーコヒーレンスを向上し,画像とストーリーの関連性も向上することがわかった。
論文 参考訳(メタデータ) (2022-09-04T15:07:53Z) - COINS: Dynamically Generating COntextualized Inference Rules for
Narrative Story Completion [16.676036625561057]
我々は、文脈文を反復的に読み出し、文脈化された推論規則を生成し、それらを符号化し、タスク固有の出力生成をガイドするフレームワークであるCOINSを提案する。
繰り返しモデルで推論と文生成のステップをモジュール化することにより、推論のステップとその次の文生成に対する影響を透過的にすることを目指す。
自動的および手動的評価は、特にコヒーレンスの観点から、SOTAベースラインよりも優れたストーリー文を生成することを示す。
論文 参考訳(メタデータ) (2021-06-04T14:06:33Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - Stylized Story Generation with Style-Guided Planning [38.791298336259146]
そこで本稿では,先行する文脈を条件として,新たなタスク,スタイル化されたストーリージェネレーション,すなわちスペクティフィドスタイルでストーリーを生成することを提案する。
我々のモデルは、ROCStoriesデータセットに基づいて、エモオプション駆動またはイベント駆動のストーリーを制御できる。
論文 参考訳(メタデータ) (2021-05-18T15:55:38Z) - Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning [12.264880519328353]
生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling (CAST)を紹介する。
我々のCAST手法は,既存のモデルよりも,一文字と二文字の両方で,一貫性があり,オントピー的,楽しむことができる。
論文 参考訳(メタデータ) (2021-05-04T06:40:33Z) - Narrative Interpolation for Generating and Understanding Stories [52.463747140762145]
そこで本研究では,ユーザが特定した目的語を含むコヒーレントな物語を生成するために,モデルをガイドできる物語・物語生成制御手法を提案する。
本手法の中核はGPT-2に基づく漸進的モデルであり,前文と次文を物語の中で条件付けし,そのギャップを埋める。
終末誘導世代は、与えられた終末ガイドに忠実で忠実であり、過去のアプローチよりも手作業の少ない物語を生み出すことを示す。
論文 参考訳(メタデータ) (2020-08-17T16:45:50Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。