論文の概要: GroomLight: Hybrid Inverse Rendering for Relightable Human Hair Appearance Modeling
- arxiv url: http://arxiv.org/abs/2503.10597v1
- Date: Thu, 13 Mar 2025 17:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:22.817083
- Title: GroomLight: Hybrid Inverse Rendering for Relightable Human Hair Appearance Modeling
- Title(参考訳): GroomLight: Relightable Human Hair Displayance Modelingのためのハイブリッド逆レンダリング
- Authors: Yang Zheng, Menglei Chai, Delio Vicini, Yuxiao Zhou, Yinghao Xu, Leonidas Guibas, Gordon Wetzstein, Thabo Beeler,
- Abstract要約: GroomLightは,マルチビュー画像からヘア外観を再現する新しい手法である。
両コンポーネントを最適化し,高忠実度リライト,ビュー合成,マテリアル編集を可能にするハイブリッド逆レンダリングパイプラインを提案する。
- 参考スコア(独自算出の注目度): 56.94251484447597
- License:
- Abstract: We present GroomLight, a novel method for relightable hair appearance modeling from multi-view images. Existing hair capture methods struggle to balance photorealistic rendering with relighting capabilities. Analytical material models, while physically grounded, often fail to fully capture appearance details. Conversely, neural rendering approaches excel at view synthesis but generalize poorly to novel lighting conditions. GroomLight addresses this challenge by combining the strengths of both paradigms. It employs an extended hair BSDF model to capture primary light transport and a light-aware residual model to reconstruct the remaining details. We further propose a hybrid inverse rendering pipeline to optimize both components, enabling high-fidelity relighting, view synthesis, and material editing. Extensive evaluations on real-world hair data demonstrate state-of-the-art performance of our method.
- Abstract(参考訳): GroomLightは,マルチビュー画像から髪形を再現する新しい手法である。
既存のヘアキャプチャ手法は、光リアリスティックレンダリングとライティング能力のバランスをとるのに苦労する。
分析材料モデルは、物理的に接地されているものの、外観の詳細を完全に把握できないことが多い。
逆に、ニューラルレンダリングアプローチはビュー合成において優れるが、新しい照明条件にはあまり一般化しない。
GroomLightは、両方のパラダイムの長所を組み合わせることで、この課題に対処する。
長髪のBSDFモデルを用いて一次光輸送を捕捉し、残りの詳細を再構築するために光認識残差モデルを用いる。
さらに、両コンポーネントを最適化し、高忠実度リライト、ビュー合成、マテリアル編集を可能にするハイブリッド逆レンダリングパイプラインを提案する。
実世界の毛髪データに対する広範囲な評価は,本手法の最先端性能を示すものである。
関連論文リスト
- DiffusionRenderer: Neural Inverse and Forward Rendering with Video Diffusion Models [83.28670336340608]
逆レンダリングとフォワードレンダリングの二重問題に対処するニューラルアプローチであるDiffusionRendererを導入する。
本モデルは,リライティング,素材編集,現実的なオブジェクト挿入など,単一のビデオ入力から現実的な応用を可能にする。
論文 参考訳(メタデータ) (2025-01-30T18:59:11Z) - GaussianHair: Hair Modeling and Rendering with Light-aware Gaussians [41.52673678183542]
本稿では,新鮮な毛髪表現であるGaussianHairについて述べる。
ヘア幾何学と画像からの外観の包括的モデリングを可能にし、革新的な照明効果と動的アニメーション能力を育む。
我々はこのモデルを"GaussianHair Scattering Model"でさらに強化し、ヘアストランドの細い構造を再現し、均一な照明で局所的な拡散色を正確に捉えた。
論文 参考訳(メタデータ) (2024-02-16T07:13:24Z) - URHand: Universal Relightable Hands [64.25893653236912]
URHandは、視点、ポーズ、イルミネーション、アイデンティティを一般化する最初の普遍的照らし手モデルである。
本モデルでは,携帯電話で撮影した画像によるパーソナライズが可能であり,新たな照明下でのフォトリアリスティックなレンダリングが可能である。
論文 参考訳(メタデータ) (2024-01-10T18:59:51Z) - NePF: Neural Photon Field for Single-Stage Inverse Rendering [6.977356702921476]
多視点画像の逆レンダリングに対処するために,新しい単一ステージフレームワークNePF(Neural Photon Field)を提案する。
NePFは、神経暗黙表面の重み関数の背後にある物理的意味を完全に活用することで、この統一を実現する。
我々は本手法を実データと合成データの両方で評価する。
論文 参考訳(メタデータ) (2023-11-20T06:15:46Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。