論文の概要: STORYANCHORS: Generating Consistent Multi-Scene Story Frames for Long-Form Narratives
- arxiv url: http://arxiv.org/abs/2505.08350v1
- Date: Tue, 13 May 2025 08:48:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.491836
- Title: STORYANCHORS: Generating Consistent Multi-Scene Story Frames for Long-Form Narratives
- Title(参考訳): STORYANCHORS:長期物語のための一貫性のあるマルチシーンストーリーフレームの生成
- Authors: Bo Wang, Haoyang Huang, Zhiyin Lu, Fengyuan Liu, Guoqing Ma, Jianlong Yuan, Yuan Zhang, Nan Duan,
- Abstract要約: 本稿では,高品質でマルチシーンなストーリーフレームを生成するための統合フレームワークであるStoryAnchorsを紹介する。
StoryAnchorsは、時間的一貫性を確保するために、過去と将来の両方のコンテキストを統合する双方向のストーリージェネレータを使用している。
また、マルチイベントストーリーフレームラベリングとプログレッシブストーリーフレームトレーニングを統合し、モデルが包括的な物語の流れとイベントレベルのダイナミクスの両方をキャプチャできるようにする。
- 参考スコア(独自算出の注目度): 50.607825411259725
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces StoryAnchors, a unified framework for generating high-quality, multi-scene story frames with strong temporal consistency. The framework employs a bidirectional story generator that integrates both past and future contexts to ensure temporal consistency, character continuity, and smooth scene transitions throughout the narrative. Specific conditions are introduced to distinguish story frame generation from standard video synthesis, facilitating greater scene diversity and enhancing narrative richness. To further improve generation quality, StoryAnchors integrates Multi-Event Story Frame Labeling and Progressive Story Frame Training, enabling the model to capture both overarching narrative flow and event-level dynamics. This approach supports the creation of editable and expandable story frames, allowing for manual modifications and the generation of longer, more complex sequences. Extensive experiments show that StoryAnchors outperforms existing open-source models in key areas such as consistency, narrative coherence, and scene diversity. Its performance in narrative consistency and story richness is also on par with GPT-4o. Ultimately, StoryAnchors pushes the boundaries of story-driven frame generation, offering a scalable, flexible, and highly editable foundation for future research.
- Abstract(参考訳): 本稿では,高い時間的整合性を持つ高品質で多場面のストーリーフレームを生成するための統合フレームワークであるStoryAnchorsを紹介する。
このフレームワークは、過去と将来の両方のコンテキストを統合する双方向のストーリージェネレータを使用して、物語全体の時間的一貫性、キャラクターの連続性、スムーズなシーン遷移を保証する。
ストーリーフレーム生成と標準的なビデオ合成を区別し、シーンの多様性を高め、物語の豊かさを高めるために、特定の条件が導入された。
生成品質をさらに向上するため、StoryAnchorsは、マルチイベントストーリーフレームラベリングとプログレッシブストーリーフレームトレーニングを統合し、モデルが包括的なストーリーフローとイベントレベルのダイナミクスの両方をキャプチャできるようにする。
このアプローチは編集可能で拡張可能なストーリーフレームの作成をサポートし、手作業による修正や、より長い複雑なシーケンスの生成を可能にする。
大規模な実験によると、StoryAnchorsは一貫性、物語のコヒーレンス、シーンの多様性といった重要な領域において、既存のオープンソースモデルよりも優れています。
物語の一貫性と物語の豊かさは、GPT-4oと同等である。
最終的に、StoryAnchorsはストーリー駆動のフレーム生成の境界を押し進め、将来の研究のためのスケーラブルで柔軟性があり、高度に編集可能な基盤を提供する。
関連論文リスト
- MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence [62.72540590546812]
MovieDreamerは、自己回帰モデルの強みと拡散ベースのレンダリングを統合する、新しい階層的なフレームワークである。
様々な映画ジャンルにまたがって実験を行い、そのアプローチが優れた視覚的・物語的品質を実現することを示す。
論文 参考訳(メタデータ) (2024-07-23T17:17:05Z) - ContextualStory: Consistent Visual Storytelling with Spatially-Enhanced and Storyline Context [50.572907418430155]
ContextualStoryは、コヒーレントなストーリーフレームを生成し、ビジュアルなストーリーテリングのためにフレームを拡張するように設計されたフレームワークである。
ストーリーライン埋め込みにおけるコンテキストを豊かにするストーリーラインコンテクストアライザと、フレーム間のシーン変化を測定するストーリーフローアダプタを導入する。
PororoSVとFlintstonesSVデータセットの実験では、ContextualStoryはストーリーの可視化と継続の両方で既存のSOTAメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-07-13T05:02:42Z) - Make-A-Story: Visual Memory Conditioned Consistent Story Generation [57.691064030235985]
本稿では,アクタと背景コンテキストを暗黙的にキャプチャするビジュアルメモリモジュールを備えた,自己回帰拡散に基づく新しいフレームワークを提案する。
本手法は,視覚的品質の高いフレーム生成において,先行技術よりも優れていた。
MUGEN, PororoSV, FlintstonesSVデータセット上でのストーリー生成実験により, この手法は, 視覚的品質の高いフレーム生成において, 先行技術よりも優れるだけでなく, キャラクタと背景との適切な対応をモデル化した。
論文 参考訳(メタデータ) (2022-11-23T21:38:51Z) - Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning [12.264880519328353]
生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling (CAST)を紹介する。
我々のCAST手法は,既存のモデルよりも,一文字と二文字の両方で,一貫性があり,オントピー的,楽しむことができる。
論文 参考訳(メタデータ) (2021-05-04T06:40:33Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。