論文の概要: SceneDecorator: Towards Scene-Oriented Story Generation with Scene Planning and Scene Consistency
- arxiv url: http://arxiv.org/abs/2510.22994v1
- Date: Mon, 27 Oct 2025 04:19:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.448016
- Title: SceneDecorator: Towards Scene-Oriented Story Generation with Scene Planning and Scene Consistency
- Title(参考訳): SceneDecorator:Scene PlanningとScene Consistencyを備えたScene-Oriented Story Generationを目指して
- Authors: Quanjian Song, Donghao Zhou, Jingyu Lin, Fei Shen, Jiaze Wang, Xiaowei Hu, Cunjian Chen, Pheng-Ann Heng,
- Abstract要約: SceneDecorator は VLM-Guided Scene Planning を利用したトレーニングフリーのフレームワークであり、グローバル・ツー・ローカルな方法で異なるシーン間での物語の一貫性を確保する。
大規模な実験はSceneDecoratorの優れたパフォーマンスを示し、芸術、映画、ゲームの分野における創造性を解き放つ可能性を強調している。
- 参考スコア(独自算出の注目度): 47.20554570948312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent text-to-image models have revolutionized image generation, but they still struggle with maintaining concept consistency across generated images. While existing works focus on character consistency, they often overlook the crucial role of scenes in storytelling, which restricts their creativity in practice. This paper introduces scene-oriented story generation, addressing two key challenges: (i) scene planning, where current methods fail to ensure scene-level narrative coherence by relying solely on text descriptions, and (ii) scene consistency, which remains largely unexplored in terms of maintaining scene consistency across multiple stories. We propose SceneDecorator, a training-free framework that employs VLM-Guided Scene Planning to ensure narrative coherence across different scenes in a ``global-to-local'' manner, and Long-Term Scene-Sharing Attention to maintain long-term scene consistency and subject diversity across generated stories. Extensive experiments demonstrate the superior performance of SceneDecorator, highlighting its potential to unleash creativity in the fields of arts, films, and games.
- Abstract(参考訳): 最近のテキスト画像モデルは画像生成に革命をもたらしたが、生成した画像間の概念整合性を維持することにはまだ苦戦している。
既存の作品はキャラクターの一貫性に重点を置いているが、ストーリーテリングにおけるシーンの重要な役割を見落としていることが多い。
本稿では,シーン指向のストーリー生成について紹介し,2つの課題に対処する。
一 文章の記述のみに頼って、シーンレベルの物語コヒーレンスを確保するのに失敗する場面計画
(二)複数の物語にまたがるシーンの一貫性を保ちながら、ほとんど探索されていないシーンの一貫性。
SceneDecorator は VLM-Guided Scene Planning を応用し,各シーン間の物語のコヒーレンスを 'global-to-local'' 形式で保証し,長期的シーンの一貫性と主題の多様性を維持するための長期的シーン共有アテンションを提案する。
大規模な実験はSceneDecoratorの優れたパフォーマンスを示し、芸術、映画、ゲームの分野における創造性を解き放つ可能性を強調している。
関連論文リスト
- STORYANCHORS: Generating Consistent Multi-Scene Story Frames for Long-Form Narratives [82.19488717416351]
本稿では,高品質でマルチシーンなストーリーフレームを生成するための統合フレームワークであるStoryAnchorsを紹介する。
StoryAnchorsは、時間的一貫性を確保するために、過去と将来の両方のコンテキストを統合する双方向のストーリージェネレータを使用している。
また、マルチイベントストーリーフレームラベリングとプログレッシブストーリーフレームトレーニングを統合し、モデルが包括的な物語の流れとイベントレベルのダイナミクスの両方をキャプチャできるようにする。
論文 参考訳(メタデータ) (2025-05-13T08:48:10Z) - Make-A-Storyboard: A General Framework for Storyboard with Disentangled
and Merged Control [131.1446077627191]
本稿では,映画制作に触発されたストーリーボード(Storyboard)という,ストーリービジュアライゼーションのための新しいプレゼンテーション形式を提案する。
ストーリーボードの各シーンの中で、キャラクターは同じ場所で活動し、視覚的に一貫したシーンとキャラクターの両方を必要とする。
当社の手法は,主流のイメージカスタマイズ手法にシームレスに統合され,ストーリービジュアライゼーションの能力を活用できる。
論文 参考訳(メタデータ) (2023-12-06T12:16:23Z) - Make-A-Story: Visual Memory Conditioned Consistent Story Generation [57.691064030235985]
本稿では,アクタと背景コンテキストを暗黙的にキャプチャするビジュアルメモリモジュールを備えた,自己回帰拡散に基づく新しいフレームワークを提案する。
本手法は,視覚的品質の高いフレーム生成において,先行技術よりも優れていた。
MUGEN, PororoSV, FlintstonesSVデータセット上でのストーリー生成実験により, この手法は, 視覚的品質の高いフレーム生成において, 先行技術よりも優れるだけでなく, キャラクタと背景との適切な対応をモデル化した。
論文 参考訳(メタデータ) (2022-11-23T21:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。