論文の概要: GAINS: Gaussian-based Inverse Rendering from Sparse Multi-View Captures
- arxiv url: http://arxiv.org/abs/2512.09925v1
- Date: Wed, 10 Dec 2025 18:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.649786
- Title: GAINS: Gaussian-based Inverse Rendering from Sparse Multi-View Captures
- Title(参考訳): GAINS:スパースマルチビューキャプチャによるガウスベースの逆レンダリング
- Authors: Patrick Noras, Jun Myeong Choi, Didier Stricker, Pieter Peers, Roni Sengupta,
- Abstract要約: GAINS (Sparse multi-view captures によるガウスベースの逆レンダリング) を導入する。
これは2段階の逆レンダリングフレームワークであり、学習に基づく事前情報を利用して幾何学と材料推定を安定化する。
材料パラメータの精度、ライティング品質、新しいビューの合成を最先端の逆レンダリング法と比較して大幅に改善する。
- 参考スコア(独自算出の注目度): 23.677487511754006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Gaussian Splatting-based inverse rendering extend Gaussian primitives with shading parameters and physically grounded light transport, enabling high-quality material recovery from dense multi-view captures. However, these methods degrade sharply under sparse-view settings, where limited observations lead to severe ambiguity between geometry, reflectance, and lighting. We introduce GAINS (Gaussian-based Inverse rendering from Sparse multi-view captures), a two-stage inverse rendering framework that leverages learning-based priors to stabilize geometry and material estimation. GAINS first refines geometry using monocular depth/normal and diffusion priors, then employs segmentation, intrinsic image decomposition (IID), and diffusion priors to regularize material recovery. Extensive experiments on synthetic and real-world datasets show that GAINS significantly improves material parameter accuracy, relighting quality, and novel-view synthesis compared to state-of-the-art Gaussian-based inverse rendering methods, especially under sparse-view settings. Project page: https://patrickbail.github.io/gains/
- Abstract(参考訳): ガウススプラッティングによる逆レンダリングの最近の進歩は、陰影パラメータと物理的に接地された光輸送によりガウス原始体を拡張し、密集した多視点撮影による高品質な物質回収を可能にした。
しかし、これらの手法はスパース・ビュー・セッティングの下で急激に劣化し、限られた観測結果によって幾何学、反射率、照明の曖昧さが著しく低下する。
GAINS (Gaussian-based Inverse rendering from Sparse multi-view captures) は、学習に基づく事前情報を利用した2段階の逆レンダリングフレームワークである。
GAINSはまず、単分子深度/正規化と拡散前の拡散を用いて幾何学を洗練し、次にセグメンテーション、固有画像分解(IID)、拡散前の物質回収を規則化する。
合成および実世界のデータセットに対する大規模な実験により、GAINSは、特にスパースビュー設定下において、最先端のガウスベースの逆レンダリング手法と比較して、材料パラメータの精度、ライティング品質、および新規ビュー合成を著しく改善することが示された。
プロジェクトページ: https://patrickbail.github.io/gains/
関連論文リスト
- MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - GOGS: High-Fidelity Geometry and Relighting for Glossy Objects via Gaussian Surfels [0.9392167468538465]
RGB画像からの光沢のある物体の逆レンダリングは、本質的には固有の曖昧さによって制限されている。
2次元ガウス波をベースとした新しい2段階フレームワークGOGSを提案する。
我々は、新しい照明下での幾何再構成、物質分離、光リアルリライティングにおける最先端性能を実証する。
論文 参考訳(メタデータ) (2025-08-20T09:35:40Z) - RGS-DR: Deferred Reflections and Residual Shading in 2D Gaussian Splatting [42.30107053583194]
我々は、仕様の細部を改善するための改良段階を論じ、再構築のみの手法でギャップを埋める。
我々のパイプラインは、指向性残留パスを用いて、編集可能な材料特性と環境照明を推定する。
最短軸法線と正常残差を持つガウス色ごとのシェーディングとは対照的に、スペクトル残差を持つ画素遅延型サーベイル定式化により、シャープなハイライト、よりクリーンな材料、編集性が改善された。
論文 参考訳(メタデータ) (2025-04-25T16:23:50Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。