論文の概要: CamLit: Unified Video Diffusion with Explicit Camera and Lighting Control
- arxiv url: http://arxiv.org/abs/2603.14241v1
- Date: Sun, 15 Mar 2026 06:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.694057
- Title: CamLit: Unified Video Diffusion with Explicit Camera and Lighting Control
- Title(参考訳): CamLit:明示的なカメラと照明制御を備えた統合ビデオ拡散
- Authors: Zhiyi Kuang, Chengan He, Egor Zakharov, Yuxuan Xue, Shunsuke Saito, Olivier Maury, Timur Bagautdinov, Youyi Zheng, Giljoo Nam,
- Abstract要約: CamLitは、新しいビュー合成(NVS)を共同で実行し、単一の入力画像からリライトする最初の統合ビデオ拡散モデルである。
一つの生成モデルが、カメラと照明制御を効果的に統合し、ビデオ生成パイプラインを簡素化できることが示される。
- 参考スコア(独自算出の注目度): 34.44048565655544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present CamLit, the first unified video diffusion model that jointly performs novel view synthesis (NVS) and relighting from a single input image. Given one reference image, a user-defined camera trajectory, and an environment map, CamLit synthesizes a video of the scene from new viewpoints under the specified illumination. Within a single generative process, our model produces temporally coherent and spatially aligned outputs, including relit novel-view frames and corresponding albedo frames, enabling high-quality control of both camera pose and lighting. Qualitative and quantitative experiments demonstrate that CamLit achieves high-fidelity outputs on par with state-of-the-art methods in both novel view synthesis and relighting, without sacrificing visual quality in either task. We show that a single generative model can effectively integrate camera and lighting control, simplifying the video generation pipeline while maintaining competitive performance and consistent realism.
- Abstract(参考訳): 我々は,新しいビュー合成(NVS)と単一入力画像からのリライティングを共同で行う,最初の統合ビデオ拡散モデルCamLitを提案する。
1つの参照画像、ユーザー定義カメラ軌跡、環境マップが与えられた場合、CamLitは指定された照明の下で新しい視点からシーンのビデオを合成する。
一つの生成過程内では,新しい視点フレームとそれに対応するアルベドフレームを含む時間的整合性および空間的整合性のある出力を生成し,カメラポーズと照明の両方の高品質な制御を可能にする。
定性的かつ定量的な実験により、CamLitは両タスクの視覚的品質を犠牲にすることなく、新しいビュー合成とリライティングの両方において最先端の手法と同等の高忠実度出力を達成することを示した。
一つの生成モデルは、カメラと照明制御を効果的に統合し、競争性能と一貫したリアリズムを維持しつつ、映像生成パイプラインを簡素化できることを示す。
関連論文リスト
- SyncLight: Controllable and Consistent Multi-View Relighting [32.77275120597073]
静的シーンの複数の未校正ビューをまたいで一貫したパラメトリックリライティングを可能にする最初の方法であるSyncLightを提案する。
SyncLightは、単一の参照編集で条件付けられたシーンのマルチビューキャプチャを通して、光の強度と色を正確に制御可能にすることで、この問題に対処する。
論文 参考訳(メタデータ) (2026-01-23T18:59:57Z) - Light-X: Generative 4D Video Rendering with Camera and Illumination Control [52.87059646145144]
Light-Xは、視点制御と照明制御の両方でモノクロビデオから制御可能なレンダリングを可能にする、ビデオ生成フレームワークである。
マルチビューとマルチイルミネーションのペアビデオの欠如に対処するために,逆マッピングを備えた劣化ベースのパイプラインであるLight-Synを導入する。
論文 参考訳(メタデータ) (2025-12-04T18:59:57Z) - Virtually Being: Customizing Camera-Controllable Video Diffusion Models with Multi-View Performance Captures [18.241178853941623]
本稿では,映像拡散モデルにおける多視点キャラクタ一貫性と3Dカメラ制御の両立を可能にするフレームワークを提案する。
我々は、このデータに基づいて、最先端のオープンソースビデオ拡散モデルを微調整し、強力なマルチビューID保存を提供する。
私たちのフレームワークは、マルチオブジェクト生成を含む、仮想プロダクションのコア機能もサポートしています。
論文 参考訳(メタデータ) (2025-10-16T00:20:57Z) - ReLumix: Extending Image Relighting to Video via Video Diffusion Models [5.890782804843724]
ビデオのポストプロダクション中に照明を制御することは、計算写真において重要な目標である。
本稿では、時間合成からリライトを分離する新しいフレームワークであるReLumixを紹介する。
ReLumixは、合成データに基づいて訓練されているが、実世界のビデオに対する競争上の一般化を示している。
論文 参考訳(メタデータ) (2025-09-28T09:35:33Z) - Stable Virtual Camera: Generative View Synthesis with Diffusion Models [51.71244310522393]
本稿では,シーンの新たなビューを生成する汎用拡散モデルであるスタブルバーチャルカメラ(Seva)を紹介する。
このアプローチは、シンプルなモデル設計、最適化されたトレーニングレシピ、柔軟なサンプリング戦略によってこれらの制限を克服する。
提案手法では,シームレスなループ閉鎖により,最大半分間の高品質なビデオを生成することができる。
論文 参考訳(メタデータ) (2025-03-18T17:57:22Z) - StreetCrafter: Street View Synthesis with Controllable Video Diffusion Models [76.62929629864034]
我々は,LDARポイントクラウドレンダリングをピクセルレベルの条件として利用する,制御可能なビデオ拡散モデルであるStreetCrafterを紹介する。
さらに、画素レベルのLiDAR条件を利用することで、ターゲットシーンに対して正確なピクセルレベルの編集を行うことができる。
我々のモデルは視点変化を柔軟に制御し、レンダリング領域を満たすためのビューを拡大する。
論文 参考訳(メタデータ) (2024-12-17T18:58:55Z) - Consistent View Synthesis with Pose-Guided Diffusion Models [51.37925069307313]
単一の画像から新しいビューを合成することは、多くのバーチャルリアリティーアプリケーションにとって画期的な問題である。
本稿では,ポーズ誘導拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。