論文の概要: Light-X: Generative 4D Video Rendering with Camera and Illumination Control
- arxiv url: http://arxiv.org/abs/2512.05115v1
- Date: Thu, 04 Dec 2025 18:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.342936
- Title: Light-X: Generative 4D Video Rendering with Camera and Illumination Control
- Title(参考訳): Light-X: カメラと照明制御による4Dビデオレンダリング
- Authors: Tianqi Liu, Zhaoxi Chen, Zihao Huang, Shaocong Xu, Saining Zhang, Chongjie Ye, Bohan Li, Zhiguo Cao, Wei Li, Hao Zhao, Ziwei Liu,
- Abstract要約: Light-Xは、視点制御と照明制御の両方でモノクロビデオから制御可能なレンダリングを可能にする、ビデオ生成フレームワークである。
マルチビューとマルチイルミネーションのペアビデオの欠如に対処するために,逆マッピングを備えた劣化ベースのパイプラインであるLight-Synを導入する。
- 参考スコア(独自算出の注目度): 52.87059646145144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in illumination control extend image-based methods to video, yet still facing a trade-off between lighting fidelity and temporal consistency. Moving beyond relighting, a key step toward generative modeling of real-world scenes is the joint control of camera trajectory and illumination, since visual dynamics are inherently shaped by both geometry and lighting. To this end, we present Light-X, a video generation framework that enables controllable rendering from monocular videos with both viewpoint and illumination control. 1) We propose a disentangled design that decouples geometry and lighting signals: geometry and motion are captured via dynamic point clouds projected along user-defined camera trajectories, while illumination cues are provided by a relit frame consistently projected into the same geometry. These explicit, fine-grained cues enable effective disentanglement and guide high-quality illumination. 2) To address the lack of paired multi-view and multi-illumination videos, we introduce Light-Syn, a degradation-based pipeline with inverse-mapping that synthesizes training pairs from in-the-wild monocular footage. This strategy yields a dataset covering static, dynamic, and AI-generated scenes, ensuring robust training. Extensive experiments show that Light-X outperforms baseline methods in joint camera-illumination control and surpasses prior video relighting methods under both text- and background-conditioned settings.
- Abstract(参考訳): 照明制御の最近の進歩は、映像ベースの手法をビデオに拡張しているが、光の忠実度と時間的一貫性のトレードオフに直面している。
ライティングを超えて、現実のシーンの生成モデリングに向けた重要なステップは、カメラの軌跡と照明のジョイントコントロールである。
そこで本研究では,視点と照明の両方でモノクロ映像のレンダリングを制御可能なビデオ生成フレームワークLight-Xを提案する。
1) ユーザ定義カメラ軌道に沿って投影される動的点雲を通して幾何学と運動を捉え, 同一形状に連続的に投影される従属フレームによって照明キューを提供する。
これらの明快できめ細かな手がかりは、効果的な絡み合いを可能にし、高品質な照明を誘導する。
2) 対のマルチビューとマルチイルミネーションビデオの欠如に対処するために, 逆マッピングを用いた劣化型パイプラインであるLight-Synを導入し, 光源内モノクロ映像からトレーニングペアを合成する。
この戦略は、静的、動的、AI生成シーンをカバーするデータセットを生成し、堅牢なトレーニングを保証する。
広汎な実験により、Light-Xは、共同カメラの照明制御におけるベースライン法よりも優れており、テキストと背景条件の両方の条件下での以前のビデオリライト法よりも優れていた。
関連論文リスト
- GLOW: Global Illumination-Aware Inverse Rendering of Indoor Scenes Captured with Dynamic Co-Located Light & Camera [18.90141473604964]
室内シーンの逆レンダリングは、反射率と照明のあいまいさのため、依然として困難である。
GLOWは、これらの課題に対処するために設計された、Global Illumination-aware Inverse Renderingフレームワークである。
論文 参考訳(メタデータ) (2025-11-28T03:24:12Z) - ReLumix: Extending Image Relighting to Video via Video Diffusion Models [5.890782804843724]
ビデオのポストプロダクション中に照明を制御することは、計算写真において重要な目標である。
本稿では、時間合成からリライトを分離する新しいフレームワークであるReLumixを紹介する。
ReLumixは、合成データに基づいて訓練されているが、実世界のビデオに対する競争上の一般化を示している。
論文 参考訳(メタデータ) (2025-09-28T09:35:33Z) - IllumiCraft: Unified Geometry and Illumination Diffusion for Controllable Video Generation [79.1960960864242]
IllumiCraftは3つの補完的な入力を受け入れるエンドツーエンドの拡散フレームワークである。
ユーザの定義したプロンプトに沿った時間的に一貫性のあるビデオを生成する。
論文 参考訳(メタデータ) (2025-06-03T17:59:52Z) - Light-A-Video: Training-free Video Relighting via Progressive Light Fusion [52.420894727186216]
Light-A-Videoは、時間的にスムーズなビデオリライティングを実現するためのトレーニング不要のアプローチである。
Light-A-Videoは、画像のリライティングモデルに適応して、照明の一貫性を高める2つの重要な技術を導入している。
論文 参考訳(メタデータ) (2025-02-12T17:24:19Z) - LumiSculpt: Enabling Consistent Portrait Lighting in Video Generation [87.95655555555264]
ライティングは、ビデオ生成の自然性と美的品質を保証する上で重要な役割を担っている。
LumiSculptは、T2V生成モデルにおける正確で一貫した照明制御を可能にする。
LumiHumanは、画像やビデオのポートレートライティングのための新しいデータセットだ。
論文 参考訳(メタデータ) (2024-10-30T12:44:08Z) - Neural Video Portrait Relighting in Real-time via Consistency Modeling [41.04622998356025]
本稿では,リアルタイム,高品質,コヒーレントな映像ポートレートリライティングのためのニューラルアプローチを提案する。
エンコーダデコーダアーキテクチャにおけるハイブリッド構造と照明非絡み合いを提案する。
また,実世界における自然ポートレート光操作の照明一貫性と突然変異をモデル化する照明サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-04-01T14:13:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。