論文の概要: Vidmento: Creating Video Stories Through Context-Aware Expansion With Generative Video
- arxiv url: http://arxiv.org/abs/2601.22013v1
- Date: Thu, 29 Jan 2026 17:19:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.039114
- Title: Vidmento: Creating Video Stories Through Context-Aware Expansion With Generative Video
- Title(参考訳): Vidmento: ジェネレーティブビデオによるコンテキスト認識によるビデオストーリー作成
- Authors: Catherine Yeh, Anh Truong, Mira Dontcheva, Bryan Wang,
- Abstract要約: Vidmentoは、キャプチャされたメディアと生成されたメディアを組み合わせたハイブリッドビデオストーリーを、コンテキスト対応の拡張を通じて作成するためのツールである。
Vidmentoはストーリー開発のための機会を表面化し、スタイリスティックかつ物語的に周囲のメディアとブレンドするクリップを生成し、改善のためのコントロールを提供する。
ヴィデメントは12人のクリエーターによる研究で、生成メディアで初期素材を体系的に拡張し、創造的な意図で表現力のあるビデオストーリーテリングを可能にし、物語の発達と探索を支援した。
- 参考スコア(独自算出の注目度): 11.510907063539982
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video storytelling is often constrained by available material, limiting creative expression and leaving undesired narrative gaps. Generative video offers a new way to address these limitations by augmenting captured media with tailored visuals. To explore this potential, we interviewed eight video creators to identify opportunities and challenges in integrating generative video into their workflows. Building on these insights and established filmmaking principles, we developed Vidmento, a tool for authoring hybrid video stories that combine captured and generated media through context-aware expansion. Vidmento surfaces opportunities for story development, generates clips that blend stylistically and narratively with surrounding media, and provides controls for refinement. In a study with 12 creators, Vidmento supported narrative development and exploration by systematically expanding initial materials with generative media, enabling expressive video storytelling aligned with creative intent. We highlight how creators bridge story gaps with generative content and where they find this blending capability most valuable.
- Abstract(参考訳): ビデオストーリーテリングは、しばしば利用可能な素材によって制約され、創造的な表現を制限し、望ましくない物語のギャップを残す。
生成ビデオは、これらの制限に対処するための新しい方法を提供する。
この可能性を探るため、私たちは8人のビデオクリエーターにインタビューして、生成ビデオをワークフローに統合する機会と課題を特定しました。
これらの知見に基づいて映画製作の原則を確立したVidmentoを開発した。
Vidmentoはストーリー開発のための機会を表面化し、スタイリスティックかつ物語的に周囲のメディアとブレンドするクリップを生成し、改善のためのコントロールを提供する。
ヴィデメントは12人のクリエーターと共同で行った研究で、生成メディアで初期素材を体系的に拡張し、創造的な意図に沿った表現力のあるビデオストーリーテリングを可能にし、物語の発達と探索を支援した。
クリエーターがストーリーのギャップを生成的コンテンツに埋める方法と、このブレンディング機能がいかに価値あるかを強調します。
関連論文リスト
- From Long Videos to Engaging Clips: A Human-Inspired Video Editing Framework with Multimodal Narrative Understanding [16.83482677439144]
ヒューマンインスパイアされた自動ビデオ編集フレームワーク(HIVE)を提案する。
提案手法は,多モーダル大言語モデルによる文字抽出,対話解析,物語要約を取り入れたものである。
我々のフレームワークは、一般的な編集タスクと広告指向編集タスクの両方において、既存のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-07-03T16:54:32Z) - Stealing Creator's Workflow: A Creator-Inspired Agentic Framework with Iterative Feedback Loop for Improved Scientific Short-form Generation [20.571381061542766]
SciTalkは、テキスト、フィギュア、ビジュアルスタイル、アバターなど、さまざまなソースで動画をグラウンド化するための新しいフレームワークである。
コンテンツクリエーターのイテレーションにインスパイアされたSciTalkは、コンテンツ要約、ビジュアルシーン計画、テキストとレイアウトの編集に特別なエージェントを使用する。
我々のフレームワークは、フィードバック駆動のビデオ生成の課題とメリットに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-04-26T05:22:35Z) - MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence [62.72540590546812]
MovieDreamerは、自己回帰モデルの強みと拡散ベースのレンダリングを統合する、新しい階層的なフレームワークである。
様々な映画ジャンルにまたがって実験を行い、そのアプローチが優れた視覚的・物語的品質を実現することを示す。
論文 参考訳(メタデータ) (2024-07-23T17:17:05Z) - Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation [69.20173154096]
本研究では,2つの機能モジュールからなるフレームワーク,Motion Structure RetrievalとStructure-Guided Text-to-Video Synthesisを開発した。
最初のモジュールでは、オフザシェルフビデオ検索システムを活用し、動画深度をモーション構造として抽出する。
第2のモジュールに対しては、構造と文字を柔軟に制御する制御可能なビデオ生成モデルを提案する。
論文 参考訳(メタデータ) (2023-07-13T17:57:13Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。