論文の概要: PrevizWhiz: Combining Rough 3D Scenes and 2D Video to Guide Generative Video Previsualization
- arxiv url: http://arxiv.org/abs/2602.03838v1
- Date: Tue, 03 Feb 2026 18:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.647824
- Title: PrevizWhiz: Combining Rough 3D Scenes and 2D Video to Guide Generative Video Previsualization
- Title(参考訳): PrevizWhiz: 粗い3Dシーンと2Dビデオを組み合わせて、生成ビデオの事前化をガイドする
- Authors: Erzhen Hu, Frederik Brudy, David Ledo, George Fitzmaurice, Fraser Anderson,
- Abstract要約: PrevizWhizは、大まかな3Dシーンと生成画像とビデオモデルを組み合わせて、スタイリングされたビデオプレビューを作成するシステムである。
このシステムはフレームレベルの画像再構成と、調整可能な類似性、モーションパスまたは外部ビデオ入力による時間ベースの編集、高忠実度ビデオクリップへの改善を統合する。
- 参考スコア(独自算出の注目度): 10.681930120546438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In pre-production, filmmakers and 3D animation experts must rapidly prototype ideas to explore a film's possibilities before fullscale production, yet conventional approaches involve trade-offs in efficiency and expressiveness. Hand-drawn storyboards often lack spatial precision needed for complex cinematography, while 3D previsualization demands expertise and high-quality rigged assets. To address this gap, we present PrevizWhiz, a system that leverages rough 3D scenes in combination with generative image and video models to create stylized video previews. The workflow integrates frame-level image restyling with adjustable resemblance, time-based editing through motion paths or external video inputs, and refinement into high-fidelity video clips. A study with filmmakers demonstrates that our system lowers technical barriers for film-makers, accelerates creative iteration, and effectively bridges the communication gap, while also surfacing challenges of continuity, authorship, and ethical consideration in AI-assisted filmmaking.
- Abstract(参考訳): プレプロダクションでは、映画製作者と3Dアニメーションの専門家は、本格的な製作前に映画の可能性を探るために、アイデアを迅速にプロトタイプ化しなければならないが、従来のアプローチでは、効率性と表現力のトレードオフが伴う。
手描きのストーリーボードは複雑な撮影に必要とされる空間的精度を欠いていることが多いが、3Dの事前視覚化には専門知識と高品質のリグ付き資産が必要である。
このギャップに対処するために、私たちはPrevizWhizという、粗い3Dシーンと生成画像とビデオモデルを組み合わせて、スタイリングされたビデオプレビューを作成するシステムを紹介します。
このワークフローはフレームレベルの画像再構成と、調整可能な類似性、モーションパスや外部ビデオ入力による時間ベースの編集、高忠実度ビデオクリップへの改良などを統合している。
映画製作者による研究では、我々のシステムは映画製作者の技術的な障壁を減らし、創造的なイテレーションを加速し、コミュニケーションギャップを効果的に橋渡しし、また、AI支援映画製作における連続性、著者シップ、倫理的配慮の課題を克服している。
関連論文リスト
- CineMaster: A 3D-Aware and Controllable Framework for Cinematic Text-to-Video Generation [76.72787726497343]
CineMasterは3D認識と制御可能なテキスト・ビデオ生成のためのフレームワークである。
私たちのゴールは、プロの映画監督と同等のコントロール性を持つユーザーを力づけることです。
論文 参考訳(メタデータ) (2025-02-12T18:55:36Z) - ViewCrafter: Taming Video Diffusion Models for High-fidelity Novel View Synthesis [63.169364481672915]
単一またはスパース画像からジェネリックシーンの高忠実な新規ビューを合成する新しい方法である textbfViewCrafter を提案する。
提案手法は,映像拡散モデルの強力な生成能力と,ポイントベース表現によって提供される粗い3D手がかりを利用して高品質な映像フレームを生成する。
論文 参考訳(メタデータ) (2024-09-03T16:53:19Z) - DreamCinema: Cinematic Transfer with Free Camera and 3D Character [51.56284525225804]
ユーザフレンドリーで3D空間をベースとした映像生成のための生成モデルであるDream-Cinemaを提案する。
我々は3D映像を3Dキャラクタ、駆動モーション、カメラの動き、環境の4つの重要な要素に分解する。
これらの要素をシームレスに再結合し、スムーズなフィルム生成を保証するため、構造誘導キャラクタアニメーション、形状認識カメラ運動最適化、環境認識による生成改善を提案する。
論文 参考訳(メタデータ) (2024-08-22T17:59:44Z) - Generative Rendering: Controllable 4D-Guided Video Generation with 2D
Diffusion Models [40.71940056121056]
本稿では,動的3次元メッシュの制御可能性と,新しい拡散モデルの表現性と編集性を組み合わせた新しいアプローチを提案する。
本手法は,トリグアセットのアニメーションやカメラパスの変更によって,動きを得られる様々な例について実証する。
論文 参考訳(メタデータ) (2023-12-03T14:17:11Z) - Cinematic Behavior Transfer via NeRF-based Differentiable Filming [63.1622492808519]
既存のSLAM手法は動的シーンの制限に直面し、人間のポーズ推定はしばしば2次元投影に焦点を当てる。
まず,逆撮影行動推定手法を提案する。
次に,新しい2Dビデオや3D仮想環境に様々な撮影タイプを転送できる映像転送パイプラインを導入する。
論文 参考訳(メタデータ) (2023-11-29T15:56:58Z) - 3D-Aware Video Generation [149.5230191060692]
本研究では, 3D 対応ビデオの生成を学習する 4 次元生成敵ネットワーク (GAN) について検討する。
神経暗黙表現と時間認識判別器を組み合わせることで,モノクラービデオのみを教師する3D映像を合成するGANフレームワークを開発した。
論文 参考訳(メタデータ) (2022-06-29T17:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。