論文の概要: Generating Long-form Story Using Dynamic Hierarchical Outlining with Memory-Enhancement
- arxiv url: http://arxiv.org/abs/2412.13575v1
- Date: Wed, 18 Dec 2024 07:50:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:24:49.958393
- Title: Generating Long-form Story Using Dynamic Hierarchical Outlining with Memory-Enhancement
- Title(参考訳): 動的階層的アウトラインとメモリエンハンスメントを用いたロングフォームストーリーの生成
- Authors: Qianyue Wang, Jinwu Hu, Zhengping Li, Yufeng Wang, daiyuan li, Yu Hu, Mingkui Tan,
- Abstract要約: 本稿では,DOMEと命名されたメモリ・エンハンスメントを用いた動的階層的アウトラインニングを提案し,一貫性のある内容とプロットを持つ長大なストーリーを生成する。
時間的知識グラフに基づくメモリ・エンハンスメント・モジュール(MEM)を導入し、生成されたコンテンツを保存・アクセスする。
実験により、DOMEは最先端の手法と比較して、生成した長いストーリーの流布、コヒーレンス、および全体的な品質を著しく改善することが示された。
- 参考スコア(独自算出の注目度): 29.435378306293583
- License:
- Abstract: Long-form story generation task aims to produce coherent and sufficiently lengthy text, essential for applications such as novel writingand interactive storytelling. However, existing methods, including LLMs, rely on rigid outlines or lack macro-level planning, making it difficult to achieve both contextual consistency and coherent plot development in long-form story generation. To address this issues, we propose Dynamic Hierarchical Outlining with Memory-Enhancement long-form story generation method, named DOME, to generate the long-form story with coherent content and plot. Specifically, the Dynamic Hierarchical Outline(DHO) mechanism incorporates the novel writing theory into outline planning and fuses the plan and writing stages together, improving the coherence of the plot by ensuring the plot completeness and adapting to the uncertainty during story generation. A Memory-Enhancement Module (MEM) based on temporal knowledge graphs is introduced to store and access the generated content, reducing contextual conflicts and improving story coherence. Finally, we propose a Temporal Conflict Analyzer leveraging temporal knowledge graphs to automatically evaluate the contextual consistency of long-form story. Experiments demonstrate that DOME significantly improves the fluency, coherence, and overall quality of generated long stories compared to state-of-the-art methods.
- Abstract(参考訳): ロングフォームなストーリー生成タスクは、新しい執筆やインタラクティブなストーリーテリングのような応用に不可欠な、一貫性と十分な長さのテキストを作成することを目的としている。
しかし、LLMを含む既存の手法は、厳密なアウトラインに依存したり、マクロレベルの計画が欠如しているため、長期のストーリー生成においてコンテキスト整合性と一貫性のあるプロット開発の両方を達成することは困難である。
この問題に対処するために,DOMEという名前のメモリ・エンハンスメントによる動的階層的アウトラインニングを提案し,一貫性のあるコンテンツとプロットを持つ長大なストーリーを生成する。
具体的には、動的階層的アウトライン(DHO)機構は、新規な執筆理論をアウトラインプランニングに取り入れ、計画と執筆段階を融合させ、プロットの完全性を確保し、ストーリー生成中の不確実性に適応させることで、プロットの一貫性を向上させる。
時間的知識グラフに基づくメモリ・エンハンスメント・モジュール(MEM)を導入し、生成されたコンテンツを保存・アクセスし、コンテクストの衝突を減らし、ストーリーコヒーレンスを改善する。
最後に,時間的知識グラフを利用した時間的コンフリクトアナライザを提案し,長文の文脈的一貫性を自動的に評価する。
実験により、DOMEは最先端の手法と比較して、生成した長いストーリーの流布、コヒーレンス、および全体的な品質を著しく改善することが示された。
関連論文リスト
- ContextualStory: Consistent Visual Storytelling with Spatially-Enhanced and Storyline Context [50.572907418430155]
既存の自動回帰手法は、メモリ使用量の増加、生成速度の低下、コンテキスト統合の制限に悩まされている。
本研究では,コヒーレントなストーリーフレームの生成とストーリー継続のためのフレーム拡張を目的とした新しいフレームワークであるContextualStoryを提案する。
PororoSVとFlintstonesSVベンチマークの実験では、ContextualStoryはストーリービジュアライゼーションとストーリー継続の両方において既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-07-13T05:02:42Z) - SEED-Story: Multimodal Long Story Generation with Large Language Model [66.37077224696242]
SEED-Storyは、MLLM(Multimodal Large Language Model)を利用して拡張マルチモーダルストーリーを生成する新しい手法である。
マルチモーダルアテンションシンク機構を提案し,最大25個のストーリー(トレーニング用10個)を高い効率で自動回帰的に生成する。
本稿では,大規模かつ高解像度なStoryStreamというデータセットを提案する。
論文 参考訳(メタデータ) (2024-07-11T17:21:03Z) - Guiding and Diversifying LLM-Based Story Generation via Answer Set Programming [1.7889842797216124]
大規模言語モデル(LLM)は、オープンエンドのユーザ要求に応じてストーリーを生成することができる。
本稿では,高レベルかつ抽象的な高レベルなストーリー構造仕様を用いて,ストーリー生成のガイドと多様化を提案する。
論文 参考訳(メタデータ) (2024-06-01T21:14:25Z) - Improving Pacing in Long-Form Story Planning [55.39443681232538]
ストーリーアウトラインを自動的に生成する際のペアリングを改善するためのConCrete Outline ConTrolシステムを提案する。
まず,2つの事象のどちらがより具体的であるかを判断するために,具体性評価器を訓練する。
本研究では,一様ペーシングを目的とした,あいまいな第1展開手順について検討する。
論文 参考訳(メタデータ) (2023-11-08T04:58:29Z) - GROVE: A Retrieval-augmented Complex Story Generation Framework with A
Forest of Evidence [26.90143556633735]
本稿では,etextbfVidtextbfEnce (GROVE) のftextbfOrestを用いた検索用autextbfGmented stotextbfRy生成フレームワークを提案する。
我々は、証拠の森を抽出し、生成された物語で起こりうる曖昧さを補償する「なぜ」プロンプトスキームを設計する。
論文 参考訳(メタデータ) (2023-10-09T03:55:55Z) - Re3: Generating Longer Stories With Recursive Reprompting and Revision [83.99558005056817]
我々は,2千語以上の長文を自動生成する問題を考察する。
短いストーリーの以前の作業と比較して、長距離プロットのコヒーレンスと関連性は、ここではより中心的な課題である。
本稿では,これらの課題に対処するRecursive Reprompting and Revision framework(Re3)を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:29:57Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - Content Planning for Neural Story Generation with Aristotelian Rescoring [39.07607377794395]
長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:41:32Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。