論文の概要: Light4D: Training-Free Extreme Viewpoint 4D Video Relighting
- arxiv url: http://arxiv.org/abs/2602.11769v1
- Date: Thu, 12 Feb 2026 09:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.75427
- Title: Light4D: Training-Free Extreme Viewpoint 4D Video Relighting
- Title(参考訳): Light4D: トレーニング不要のエクストリームポイント4Dビデオリライティング
- Authors: Zhenghuang Wu, Kang Chen, Zeyu Zhang, Hao Tang,
- Abstract要約: Light4Dは、目標照明下で一貫した4Dビデオを合成するために設計されたトレーニング不要のフレームワークである。
本手法は, -90から90までのカメラ回転を頑健に処理し, 時間的整合性と照明忠実性の競争性能を実現する。
- 参考スコア(独自算出の注目度): 29.562644491426173
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in diffusion-based generative models have established a new paradigm for image and video relighting. However, extending these capabilities to 4D relighting remains challenging, due primarily to the scarcity of paired 4D relighting training data and the difficulty of maintaining temporal consistency across extreme viewpoints. In this work, we propose Light4D, a novel training-free framework designed to synthesize consistent 4D videos under target illumination, even under extreme viewpoint changes. First, we introduce Disentangled Flow Guidance, a time-aware strategy that effectively injects lighting control into the latent space while preserving geometric integrity. Second, to reinforce temporal consistency, we develop Temporal Consistent Attention within the IC-Light architecture and further incorporate deterministic regularization to eliminate appearance flickering. Extensive experiments demonstrate that our method achieves competitive performance in temporal consistency and lighting fidelity, robustly handling camera rotations from -90 to 90. Code: https://github.com/AIGeeksGroup/Light4D. Website: https://aigeeksgroup.github.io/Light4D.
- Abstract(参考訳): 拡散型生成モデルの最近の進歩は、画像とビデオのリライトのための新しいパラダイムを確立している。
しかし、これらの機能を4Dリライトに拡張することは、主にペアの4Dリライトトレーニングデータの不足と、極端な視点で時間的一貫性を維持するのが困難であるため、依然として困難である。
本研究は,照度を極端に変化しても,目標照明下で一貫した4D映像を合成する新しいトレーニングフリーフレームワークであるLight4Dを提案する。
まず、幾何学的整合性を維持しつつ、照明制御を潜在空間に効果的に注入する時間認識戦略であるDistangled Flow Guidanceを導入する。
第2に、時間的一貫性を強化するために、IC-Lightアーキテクチャ内で時間的一貫性の維持を開発し、さらに決定論的正則化を組み込んで外観のぼやけを解消する。
広汎な実験により,90から90までのカメラ回転を頑健に処理し,時間的一貫性と照度において競争性能が向上することを示した。
コード:https://github.com/AIGeeksGroup/Light4D。
ウェブサイト:https://aigeeksgroup.github.io/Light4D
関連論文リスト
- SS4D: Native 4D Generative Model via Structured Spacetime Latents [50.29500511908054]
モノクロビデオから直接動的3Dオブジェクトを合成する,ネイティブな4D生成モデルであるSS4Dを提案する。
発電機を4Dデータで直接訓練し、高忠実度、時間的コヒーレンス、構造的整合性を実現する。
論文 参考訳(メタデータ) (2025-12-16T10:45:06Z) - Light-X: Generative 4D Video Rendering with Camera and Illumination Control [52.87059646145144]
Light-Xは、視点制御と照明制御の両方でモノクロビデオから制御可能なレンダリングを可能にする、ビデオ生成フレームワークである。
マルチビューとマルチイルミネーションのペアビデオの欠如に対処するために,逆マッピングを備えた劣化ベースのパイプラインであるLight-Synを導入する。
論文 参考訳(メタデータ) (2025-12-04T18:59:57Z) - ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - ReLumix: Extending Image Relighting to Video via Video Diffusion Models [5.890782804843724]
ビデオのポストプロダクション中に照明を制御することは、計算写真において重要な目標である。
本稿では、時間合成からリライトを分離する新しいフレームワークであるReLumixを紹介する。
ReLumixは、合成データに基づいて訓練されているが、実世界のビデオに対する競争上の一般化を示している。
論文 参考訳(メタデータ) (2025-09-28T09:35:33Z) - Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - Light-A-Video: Training-free Video Relighting via Progressive Light Fusion [52.420894727186216]
Light-A-Videoは、時間的にスムーズなビデオリライティングを実現するためのトレーニング不要のアプローチである。
Light-A-Videoは、画像のリライティングモデルに適応して、照明の一貫性を高める2つの重要な技術を導入している。
論文 参考訳(メタデータ) (2025-02-12T17:24:19Z) - Consistent4D: Consistent 360{\deg} Dynamic Object Generation from
Monocular Video [15.621374353364468]
Consistent4Dは、モノクロビデオから4D動的オブジェクトを生成するための新しいアプローチである。
我々は、360度ダイナミックオブジェクト再構成を4次元生成問題として、退屈なマルチビューデータ収集とカメラキャリブレーションの必要性を排除した。
論文 参考訳(メタデータ) (2023-11-06T03:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。