論文の概要: HeadLighter: Disentangling Illumination in Generative 3D Gaussian Heads via Lightstage Captures
- arxiv url: http://arxiv.org/abs/2601.02103v1
- Date: Mon, 05 Jan 2026 13:32:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.149427
- Title: HeadLighter: Disentangling Illumination in Generative 3D Gaussian Heads via Lightstage Captures
- Title(参考訳): HeadLighter:ライトステージ撮影による3Dガウシアンヘッドの照準
- Authors: Yating Wang, Yuan Sun, Xuan Wang, Ran Yi, Boyao Zhou, Yipengjing Sun, Hongyu Liu, Yinuo Wang, Lizhuang Ma,
- Abstract要約: 三次元ガウススプラッティングに基づく最近の3次元頭部生成モデルにより, リアルタイム, フォトリアリスティック, ビュー一貫性の頭部合成が可能となった。
照明と内在的な外観の深い絡み合いは、制御可能なリライトを防ぐ。
本稿では,頭部生成モデルにおける外観と照明の物理的に妥当な分解を学習する,新しい教師付きフレームワークであるHeadLighterを紹介する。
- 参考スコア(独自算出の注目度): 69.99269185793929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent 3D-aware head generative models based on 3D Gaussian Splatting achieve real-time, photorealistic and view-consistent head synthesis. However, a fundamental limitation persists: the deep entanglement of illumination and intrinsic appearance prevents controllable relighting. Existing disentanglement methods rely on strong assumptions to enable weakly supervised learning, which restricts their capacity for complex illumination. To address this challenge, we introduce HeadLighter, a novel supervised framework that learns a physically plausible decomposition of appearance and illumination in head generative models. Specifically, we design a dual-branch architecture that separately models lighting-invariant head attributes and physically grounded rendering components. A progressive disentanglement training is employed to gradually inject head appearance priors into the generative architecture, supervised by multi-view images captured under controlled light conditions with a light stage setup. We further introduce a distillation strategy to generate high-quality normals for realistic rendering. Experiments demonstrate that our method preserves high-quality generation and real-time rendering, while simultaneously supporting explicit lighting and viewpoint editing. We will publicly release our code and dataset.
- Abstract(参考訳): 三次元ガウススプラッティングに基づく最近の3次元頭部生成モデルにより, リアルタイム, フォトリアリスティック, ビュー一貫性の頭部合成が可能となった。
しかし、基本的な制限は続き、照明と内在的な外観の深い絡み合いは、制御可能なリライティングを防ぐ。
既存の解離法は、弱い教師付き学習を可能にするために強い仮定に依存しており、複雑な照明の能力を制限する。
この課題に対処するために,頭部生成モデルにおける外観と照明の物理的に妥当な分解を学習する,新しい教師付きフレームワークであるHeadLighterを紹介した。
具体的には、照明不変なヘッド属性と物理的に接地されたレンダリングコンポーネントを別々にモデル化するデュアルブランチアーキテクチャを設計する。
プログレッシブ・アンタングルメント・トレーニングを用いて、光ステージ設定で制御された光条件下で撮像された多視点画像により、頭部の外観を徐々に生成アーキテクチャに注入する。
実写レンダリングのための高品質な正規表現を生成するための蒸留戦略についても紹介する。
実験により,光の明度と視点の編集を同時にサポートしながら,高品質な生成とリアルタイムレンダリングを実現していることが示された。
コードとデータセットを公開します。
関連論文リスト
- SplatBright: Generalizable Low-Light Scene Reconstruction from Sparse Views via Physically-Guided Gaussian Enhancement [26.905118897488077]
SplatBrightは、スパースsRGB入力からのジョイントローライト拡張と再構成のための最初の一般化可能な3Dガウスフレームワークである。
我々のキーとなる考え方は、物理的に誘導された照明モデリングと幾何学的外観の疎結合を統合して、一貫した低照度再構成を行うことである。
SplatBright は2D と 3D の両方の手法と比較して、目立たない低照度シーンに優れた新規ビュー合成、クロスビュー一貫性、そしてより良い一般化を実現している。
論文 参考訳(メタデータ) (2025-12-21T09:06:16Z) - 3DPR: Single Image 3D Portrait Relight using Generative Priors [101.74130664920868]
3DPRは画像ベースのリライティングモデルであり、マルチビューのOne-Light-at-A-Time (OLAT)イメージから学習した生成的事前情報を活用する。
我々は,事前学習した画像データセットから学習した顔の幾何に先立ってリッチな情報を提供する,事前学習された生成ヘッドモデルの潜時空間を活用する。
我々のリフレクタンスネットワークは生成ヘッドモデルの潜在空間で動作し、比較的少数の光ステージ画像でリフレクタンスモデルを訓練することが可能である。
論文 参考訳(メタデータ) (2025-10-17T17:37:42Z) - Learning to Decouple the Lights for 3D Face Texture Modeling [71.67854540658472]
このような不自然な照明下での3次元顔のテクスチャをモデル化するための新しいアプローチを提案する。
この枠組みは、複数の異なる光条件の合成として、不自然な照明を模倣することを学ぶ。
単一画像とビデオシーケンスの両方の実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-12-11T16:36:45Z) - Lite2Relight: 3D-aware Single Image Portrait Relighting [87.62069509622226]
Lite2Relightは、肖像画の3D一貫性のある頭部ポーズを予測できる新しいテクニックだ。
事前学習した幾何認識エンコーダと特徴アライメントモジュールを利用することで、入力画像を3D空間にマッピングする。
これには、髪、目、表情を含むフルヘッドの3D一貫性のある結果が含まれる。
論文 参考訳(メタデータ) (2024-07-15T07:16:11Z) - Relightable Gaussian Codec Avatars [26.255161061306428]
Relightable Gaussian Codec Avatars(英語版)は、新しい表現を生成するためにアニメーションできる高忠実なrelightable head avatarsを構築する方法である。
3次元ガウシアンに基づく幾何学モデルは, 動的顔列上のヘアストランドや細孔などの3次元連続したサブミリ細部を捉えることができる。
我々は、視線反射の忠実度を改善し、光沢のある視線モデルを導入することにより、視線制御を可能にする。
論文 参考訳(メタデータ) (2023-12-06T18:59:58Z) - FaceLit: Neural 3D Relightable Faces [28.0806453092185]
FaceLitは、ユーザーが定義した様々な照明条件やビューでレンダリングできる3D顔を生成することができる。
FFHQデータセット上での3次元認識GANのFIDスコア3.5。
論文 参考訳(メタデータ) (2023-03-27T17:59:10Z) - Towards High Fidelity Monocular Face Reconstruction with Rich
Reflectance using Self-supervised Learning and Ray Tracing [49.759478460828504]
ディープニューラルネットワークエンコーダと異なるレンダリングを組み合わせた手法が、幾何学、照明、反射の非常に高速な単分子再構成の道を開いた。
古典的な最適化ベースのフレームワーク内での単眼顔再構築のためにレイトレースが導入されました。
一般シーンにおける復元品質と堅牢性を大幅に向上させる新しい手法を提案します。
論文 参考訳(メタデータ) (2021-03-29T08:58:10Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。