論文の概要: Content Planning for Neural Story Generation with Aristotelian Rescoring
- arxiv url: http://arxiv.org/abs/2009.09870v2
- Date: Fri, 9 Oct 2020 16:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:08:03.122818
- Title: Content Planning for Neural Story Generation with Aristotelian Rescoring
- Title(参考訳): Aristotelian Rescoring を用いたニューラルストーリー生成のためのコンテンツ計画
- Authors: Seraphina Goldfarb-Tarrant, Tuhin Chakrabarty, Ralph Weischedel,
Nanyun Peng
- Abstract要約: 長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
- 参考スコア(独自算出の注目度): 39.07607377794395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-form narrative text generated from large language models manages a
fluent impersonation of human writing, but only at the local sentence level,
and lacks structure or global cohesion. We posit that many of the problems of
story generation can be addressed via high-quality content planning, and
present a system that focuses on how to learn good plot structures to guide
story generation. We utilize a plot-generation language model along with an
ensemble of rescoring models that each implement an aspect of good
story-writing as detailed in Aristotle's Poetics. We find that stories written
with our more principled plot-structure are both more relevant to a given
prompt and higher quality than baselines that do not content plan, or that plan
in an unprincipled way.
- Abstract(参考訳): 大きな言語モデルから生成される長文の物語テキストは、人間の文章の流麗な擬人化を管理するが、局所的な文レベルでのみであり、構造や全体的結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドするための優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
aristotle's poeticsに詳述したように、プロット生成言語モデルと、それぞれが優れたストーリーライティングの側面を実装したリカリングモデルのアンサンブルを利用する。
より原則化されたプロット構造で書かれたストーリーは、コンテンツプランを含まないベースラインよりも、与えられたプロンプトと高い品質の両方に関係している、ということが分かりました。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning and Generation with Large Language Models [69.60579227637399]
以前の研究は、主に英語に焦点を当てた単言語設定でのみストーリー生成の計画の有効性を実証してきた。
本稿では,言語横断型ストーリ生成の新たな課題を提案する。
論文 参考訳(メタデータ) (2022-12-20T17:42:16Z) - Neural Story Planning [8.600049807193413]
本稿では,ニューラル言語モデルと因果計画を統合したストーリープロット生成手法を提案する。
我々のシステムは、物語における出来事の前提条件を推測し、その条件が真実になるイベントを推定する。
その結果,提案手法は複数の強基線よりもコヒーレントなプロットラインを生成することがわかった。
論文 参考訳(メタデータ) (2022-12-16T21:29:41Z) - Plot Writing From Pre-Trained Language Models [3.592350589927261]
事前訓練された言語モデル(PLM)は、グローバルな構造を考慮していないため、長文の物語テキストを生成することができない。
ストーリー生成における最近の研究は、プロンプト、キーワード、セマンティックフレームの形式で明示的なコンテンツ計画を再導入した。
密集的でコンテントフルなストーリーを生成するためのコンテンツプランニングの利点を維持しつつ,既成のPLMを用いてストーリープロットを生成することを提案する。
論文 参考訳(メタデータ) (2022-06-07T05:30:46Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Stylized Story Generation with Style-Guided Planning [38.791298336259146]
そこで本稿では,先行する文脈を条件として,新たなタスク,スタイル化されたストーリージェネレーション,すなわちスペクティフィドスタイルでストーリーを生成することを提案する。
我々のモデルは、ROCStoriesデータセットに基づいて、エモオプション駆動またはイベント駆動のストーリーを制御できる。
論文 参考訳(メタデータ) (2021-05-18T15:55:38Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。