論文の概要: RelightAnyone: A Generalized Relightable 3D Gaussian Head Model
- arxiv url: http://arxiv.org/abs/2601.03357v1
- Date: Tue, 06 Jan 2026 19:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:22.97871
- Title: RelightAnyone: A Generalized Relightable 3D Gaussian Head Model
- Title(参考訳): RelightAnyone:一般的な3Dガウシアンヘッドモデル
- Authors: Yingyan Xu, Pramod Rao, Sebastian Weiss, Gaspard Zoss, Markus Gross, Christian Theobalt, Marc Habermann, Derek Bradley,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、フォトリアリスティックな3Dヘッドアバターを再構成しレンダリングするための標準的なアプローチとなっている。
既存の方法では、ワンライト・アット・ア・タイム(OLAT)のような複雑な時間多重照明の下で被写体を捕獲する必要がある。
- 参考スコア(独自算出の注目度): 60.590427852071805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has become a standard approach to reconstruct and render photorealistic 3D head avatars. A major challenge is to relight the avatars to match any scene illumination. For high quality relighting, existing methods require subjects to be captured under complex time-multiplexed illumination, such as one-light-at-a-time (OLAT). We propose a new generalized relightable 3D Gaussian head model that can relight any subject observed in a single- or multi-view images without requiring OLAT data for that subject. Our core idea is to learn a mapping from flat-lit 3DGS avatars to corresponding relightable Gaussian parameters for that avatar. Our model consists of two stages: a first stage that models flat-lit 3DGS avatars without OLAT lighting, and a second stage that learns the mapping to physically-based reflectance parameters for high-quality relighting. This two-stage design allows us to train the first stage across diverse existing multi-view datasets without OLAT lighting ensuring cross-subject generalization, where we learn a dataset-specific lighting code for self-supervised lighting alignment. Subsequently, the second stage can be trained on a significantly smaller dataset of subjects captured under OLAT illumination. Together, this allows our method to generalize well and relight any subject from the first stage as if we had captured them under OLAT lighting. Furthermore, we can fit our model to unseen subjects from as little as a single image, allowing several applications in novel view synthesis and relighting for digital avatars.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、フォトリアリスティックな3Dヘッドアバターを再構成しレンダリングするための標準的なアプローチとなっている。
主な課題は、アバターを照らしてシーンの照明に合わせることである。
高品質なリライティングのためには、既存の手法では、ワンライト・アット・ア・タイム(OLAT)のような複雑な時間多重照明の下で被写体を捕獲する必要がある。
そこで本研究では,一視点画像や多視点画像で観察される任意の被写体を,その被写体に対してOLATデータを必要とせずにリライトできる,一般化された3次元ガウスヘッドモデルを提案する。
私たちの中心となる考え方は、フラットライトの3DGSアバターからそれに対応するガウスパラメータへのマッピングを学ぶことです。
我々のモデルは2つのステージから構成される: OLAT照明のないフラットライトの3DGSアバターをモデル化する第1ステージと、高品質のリライトのための物理ベースのリフレクタンスパラメータへのマッピングを学ぶ第2ステージである。
この2段階の設計により、OLAT照明がクロスオブジェクトの一般化を保証することなく、既存の多様なマルチビューデータセットで第1段階をトレーニングすることができる。
その後、第2段階は、OLAT照明下で捕獲された被写体の、はるかに小さなデータセットで訓練することができる。
これにより,本手法は,OLAT照明下で被写体を捕獲したかのように,第1段階の被写体をうまく一般化し,リライトすることができる。
さらに、我々のモデルは、単一の画像から見ることができない被験者に適合し、新しいビュー合成とデジタルアバターのリライティングにいくつかの応用が可能である。
関連論文リスト
- HeadLighter: Disentangling Illumination in Generative 3D Gaussian Heads via Lightstage Captures [69.99269185793929]
三次元ガウススプラッティングに基づく最近の3次元頭部生成モデルにより, リアルタイム, フォトリアリスティック, ビュー一貫性の頭部合成が可能となった。
照明と内在的な外観の深い絡み合いは、制御可能なリライトを防ぐ。
本稿では,頭部生成モデルにおける外観と照明の物理的に妥当な分解を学習する,新しい教師付きフレームワークであるHeadLighterを紹介する。
論文 参考訳(メタデータ) (2026-01-05T13:32:37Z) - 3DPR: Single Image 3D Portrait Relight using Generative Priors [101.74130664920868]
3DPRは画像ベースのリライティングモデルであり、マルチビューのOne-Light-at-A-Time (OLAT)イメージから学習した生成的事前情報を活用する。
我々は,事前学習した画像データセットから学習した顔の幾何に先立ってリッチな情報を提供する,事前学習された生成ヘッドモデルの潜時空間を活用する。
我々のリフレクタンスネットワークは生成ヘッドモデルの潜在空間で動作し、比較的少数の光ステージ画像でリフレクタンスモデルを訓練することが可能である。
論文 参考訳(メタデータ) (2025-10-17T17:37:42Z) - URAvatar: Universal Relightable Gaussian Codec Avatars [42.25313535192927]
我々は,未知の照明を持つ携帯電話スキャンから,フォトリアリスティックで光沢のある頭部アバターを作成するための新しいアプローチを提案する。
再建されたアバターは、様々な環境の世界的な照明でリアルタイムでアニメーションし、信頼することができる。
論文 参考訳(メタデータ) (2024-10-31T17:59:56Z) - Lite2Relight: 3D-aware Single Image Portrait Relighting [87.62069509622226]
Lite2Relightは、肖像画の3D一貫性のある頭部ポーズを予測できる新しいテクニックだ。
事前学習した幾何認識エンコーダと特徴アライメントモジュールを利用することで、入力画像を3D空間にマッピングする。
これには、髪、目、表情を含むフルヘッドの3D一貫性のある結果が含まれる。
論文 参考訳(メタデータ) (2024-07-15T07:16:11Z) - MetaGS: A Meta-Learned Gaussian-Phong Model for Out-of-Distribution 3D Scene Relighting [63.5925701087252]
アウト・オブ・ディストリビューション(OOD) 3Dリライティングは、目に見えない照明条件下での新しいビュー合成を必要とする。
この課題に対処するためにMetaGSを2つの視点から紹介する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - DiFaReli++: Diffusion Face Relighting with Consistent Cast Shadows [11.566896201650056]
我々は,グローバル照明やキャストシャドウといった課題に対処するため,自然界における単一視点の顔のリライティングに新たなアプローチを導入する。
我々は、1つのネットワークパスだけを必要とする単発リライトフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-19T08:03:20Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。