論文の概要: StoryWriter: A Multi-Agent Framework for Long Story Generation
- arxiv url: http://arxiv.org/abs/2506.16445v1
- Date: Thu, 19 Jun 2025 16:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.162825
- Title: StoryWriter: A Multi-Agent Framework for Long Story Generation
- Title(参考訳): StoryWriter: ロングストーリー生成のためのマルチエージェントフレームワーク
- Authors: Haotian Xia, Hao Peng, Yunjia Qi, Xiaozhi Wang, Bin Xu, Lei Hou, Juanzi Li,
- Abstract要約: 長いストーリー生成は、既存の大きな言語モデルにとって依然として課題である。
本稿では,3つの主要モジュールから構成されるマルチエージェント・ストーリー生成フレームワークであるStoryWriterを提案する。
StoryWriterは、ストーリーの品質と長さの両方において、既存のストーリー生成ベースラインを大幅に上回る。
- 参考スコア(独自算出の注目度): 53.80343104003837
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Long story generation remains a challenge for existing large language models (LLMs), primarily due to two main factors: (1) discourse coherence, which requires plot consistency, logical coherence, and completeness in the long-form generation, and (2) narrative complexity, which requires an interwoven and engaging narrative. To address these challenges, we propose StoryWriter, a multi-agent story generation framework, which consists of three main modules: (1) outline agent, which generates event-based outlines containing rich event plots, character, and event-event relationships. (2) planning agent, which further details events and plans which events should be written in each chapter to maintain an interwoven and engaging story. (3) writing agent, which dynamically compresses the story history based on the current event to generate and reflect new plots, ensuring the coherence of the generated story. We conduct both human and automated evaluation, and StoryWriter significantly outperforms existing story generation baselines in both story quality and length. Furthermore, we use StoryWriter to generate a dataset, which contains about $6,000$ high-quality long stories, with an average length of $8,000$ words. We train the model Llama3.1-8B and GLM4-9B using supervised fine-tuning on LongStory and develop StoryWriter_GLM and StoryWriter_GLM, which demonstrates advanced performance in long story generation.
- Abstract(参考訳): 長文生成は,(1)プロット一貫性,論理コヒーレンス,および長文生成における完全性を必要とする談話コヒーレンス,(2)編間的かつ魅力的な物語を必要とする物語複雑性という2つの主要な要因により,既存の大規模言語モデル (LLM) にとって依然として課題となっている。
これらの課題に対処するため,(1) リッチなイベントプロット,キャラクタ,イベントとイベントの関連性を含むイベントベースのアウトラインを生成するアウトラインエージェントという,3つの主要なモジュールで構成されるマルチエージェント・ストーリー生成フレームワークであるStoryWriterを提案する。
2)各章に記載すべき出来事や計画の詳細を詳述し、織り交ぜて係わる物語の維持を図る。
(3) 現在の出来事に基づいて動的にストーリー履歴を圧縮し、新しいプロットを生成し、反映し、生成されたストーリーのコヒーレンスを確保する。
私たちは人的評価と自動評価の両方を行い、StoryWriterはストーリーの品質と長さの両方で既存のストーリー生成ベースラインを大幅に上回っています。
さらに、StoryWriterを使ってデータセットを生成します。
Llama3.1-8BとGLM4-9BをLongStoryの教師付き微調整を用いて訓練し、長いストーリー生成における高度なパフォーマンスを示すStoryWriter_GLMとStoryWriter_GLMを開発した。
関連論文リスト
- STORYANCHORS: Generating Consistent Multi-Scene Story Frames for Long-Form Narratives [82.19488717416351]
本稿では,高品質でマルチシーンなストーリーフレームを生成するための統合フレームワークであるStoryAnchorsを紹介する。
StoryAnchorsは、時間的一貫性を確保するために、過去と将来の両方のコンテキストを統合する双方向のストーリージェネレータを使用している。
また、マルチイベントストーリーフレームラベリングとプログレッシブストーリーフレームトレーニングを統合し、モデルが包括的な物語の流れとイベントレベルのダイナミクスの両方をキャプチャできるようにする。
論文 参考訳(メタデータ) (2025-05-13T08:48:10Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - Content Planning for Neural Story Generation with Aristotelian Rescoring [39.07607377794395]
長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:41:32Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。