論文の概要: PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking
- arxiv url: http://arxiv.org/abs/2004.14967v2
- Date: Fri, 9 Oct 2020 23:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:32:24.655245
- Title: PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking
- Title(参考訳): PlotMachines:動的プロット状態トラッキングによるアウトラインコンディション生成
- Authors: Hannah Rashkin, Asli Celikyilmaz, Yejin Choi, and Jianfeng Gao
- Abstract要約: PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
- 参考スコア(独自算出の注目度): 128.76063992147016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the task of outline-conditioned story generation: given an outline
as a set of phrases that describe key characters and events to appear in a
story, the task is to generate a coherent narrative that is consistent with the
provided outline. This task is challenging as the input only provides a rough
sketch of the plot, and thus, models need to generate a story by interweaving
the key points provided in the outline. This requires the model to keep track
of the dynamic states of the latent plot, conditioning on the input outline
while generating the full story. We present PlotMachines, a neural narrative
model that learns to transform an outline into a coherent story by tracking the
dynamic plot states. In addition, we enrich PlotMachines with high-level
discourse structure so that the model can learn different writing styles
corresponding to different parts of the narrative. Comprehensive experiments
over three fiction and non-fiction datasets demonstrate that large-scale
language models, such as GPT-2 and Grover, despite their impressive generation
performance, are not sufficient in generating coherent narratives for the given
outline, and dynamic plot state tracking is important for composing narratives
with tighter, more consistent plots.
- Abstract(参考訳): 本稿では,ストーリーに現れるキーキャラクタやイベントを記述した一組のフレーズのアウトラインとして,提供されたアウトラインと整合したコヒーレントな物語を生成するための,アウトライン条件付きストーリー生成のタスクを提案する。
このタスクは、入力がプロットの粗いスケッチのみを提供するため、モデルがアウトラインで提供されるキーポイントを織り込むことでストーリーを生成する必要があるため、難しい。
これにより、モデルが潜在プロットの動的状態を追跡し、完全なストーリーを生成しながらインプットアウトラインを条件にする必要がある。
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習するニューラルネットワークモデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
3つのフィクションとノンフィクションのデータセットに関する包括的な実験は、GPT-2やGroverのような大規模言語モデルは、その印象的な生成性能にもかかわらず、与えられたアウトラインに対する一貫性のある物語を生成するには不十分であり、より厳密で一貫したプロットで物語を構成するには動的プロット状態追跡が重要であることを示した。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - StoryVerse: Towards Co-authoring Dynamic Plot with LLM-based Character Simulation via Narrative Planning [8.851718319632973]
大きな言語モデル(LLM)は仮想文字の振る舞いを駆動し、プロットは文字と環境間の相互作用から現れる。
著者の著作意図と LLM によるキャラクタシミュレーションの創発的行動とを仲介するプロット作成ワークフローを提案する。
このプロセスは「生きた物語」を作り、様々なゲーム世界の状態に動的に適応し、著者、キャラクターシミュレーション、プレイヤーが共同で物語を作る。
論文 参考訳(メタデータ) (2024-05-17T23:04:51Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - Detecting and Grounding Important Characters in Visual Stories [18.870236356616907]
本稿では,リッチな文字中心アノテーションを提供するVIST-Characterデータセットを紹介する。
このデータセットに基づいて,重要な文字の検出と,視覚的ストーリーにおける文字のグラウンド化という,2つの新しいタスクを提案する。
本研究では,分布類似性と事前学習された視覚・言語モデルに基づく,シンプルで教師なしのモデルを開発する。
論文 参考訳(メタデータ) (2023-03-30T18:24:06Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z) - Generating Coherent Narratives by Learning Dynamic and Discrete Entity
States with a Contrastive Framework [68.1678127433077]
我々はトランスフォーマーモデルを拡張して,物語生成のためのエンティティ状態更新と文実現を動的に行う。
2つのナラティブデータセットの実験により、我々のモデルは強いベースラインよりも一貫性があり多様なナラティブを生成できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:02:19Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - Content Planning for Neural Story Generation with Aristotelian Rescoring [39.07607377794395]
長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。