論文の概要: Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2505.21502v1
- Date: Tue, 27 May 2025 17:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.858161
- Title: Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis
- Title(参考訳): ヒトの新規な視点合成のための一般化可能で楽しいガウススプラッティング
- Authors: Yipengjing Sun, Chenyang Wang, Shunyuan Zheng, Zonglin Li, Shengping Zhang, Xiangyang Ji,
- Abstract要約: GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
- 参考スコア(独自算出の注目度): 49.67420486373202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose GRGS, a generalizable and relightable 3D Gaussian framework for high-fidelity human novel view synthesis under diverse lighting conditions. Unlike existing methods that rely on per-character optimization or ignore physical constraints, GRGS adopts a feed-forward, fully supervised strategy that projects geometry, material, and illumination cues from multi-view 2D observations into 3D Gaussian representations. Specifically, to reconstruct lighting-invariant geometry, we introduce a Lighting-aware Geometry Refinement (LGR) module trained on synthetically relit data to predict accurate depth and surface normals. Based on the high-quality geometry, a Physically Grounded Neural Rendering (PGNR) module is further proposed to integrate neural prediction with physics-based shading, supporting editable relighting with shadows and indirect illumination. Besides, we design a 2D-to-3D projection training scheme that leverages differentiable supervision from ambient occlusion, direct, and indirect lighting maps, which alleviates the computational cost of explicit ray tracing. Extensive experiments demonstrate that GRGS achieves superior visual quality, geometric consistency, and generalization across characters and lighting conditions.
- Abstract(参考訳): 本稿では,多彩な照明条件下での高忠実な人為的視点合成のための,汎用的で光沢のある3次元ガウスフレームワークGRGSを提案する。
文字ごとの最適化や物理的制約を無視した既存の方法とは異なり、GRGSは、多視点2D観測から3次元ガウス表現へ幾何学、材料、照明のキューを投影するフィードフォワードで完全に監督された戦略を採用している。
具体的には、光の不変な形状を再構成するために、精密な深度と表面の正常さを予測するために、合成的に依存したデータに基づいて訓練された照明対応幾何微細化(LGR)モジュールを導入する。
高品質な幾何に基づいて、物理基底型ニューラルレンダリング(PGNR)モジュールがさらに提案され、ニューラル予測と物理ベースのシェーディングを統合し、シャドーによる編集可能なリライティングと間接照明をサポートする。
また、2次元から3次元のプロジェクション・トレーニング・スキームを設計し、周囲のオクルージョン、直接、間接の照明マップから様々な監督を行ない、明示的な光線追跡の計算コストを軽減する。
広範囲な実験により、GRGSは優れた視覚的品質、幾何的整合性、文字と照明条件をまたいだ一般化を実現することが示された。
関連論文リスト
- GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - BiGS: Bidirectional Gaussian Primitives for Relightable 3D Gaussian Splatting [10.918133974256913]
本稿では、画像に基づく新規ビュー合成技術である双方向ガウスプリミティブについて述べる。
提案手法はガウススプラッティングフレームワークに光の内在分解を取り入れ,3次元物体のリアルタイムリライティングを可能にする。
論文 参考訳(メタデータ) (2024-08-23T21:04:40Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。