論文の概要: Modeling Indirect Illumination for Inverse Rendering
- arxiv url: http://arxiv.org/abs/2204.06837v1
- Date: Thu, 14 Apr 2022 09:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 13:43:38.817558
- Title: Modeling Indirect Illumination for Inverse Rendering
- Title(参考訳): 逆レンダリングのための間接照明のモデリング
- Authors: Yuanqing Zhang, Jiaming Sun, Xingyi He, Huan Fu, Rongfei Jia, Xiaowei
Zhou
- Abstract要約: 本稿では,空間的に変化する間接照明を効率よく回収するための新しい手法を提案する。
重要な洞察は、間接照明は入力画像から学習した神経放射場から便利に導出できるということである。
合成データと実データの両方の実験は、従来の研究と比較して、我々のアプローチの優れた性能を示している。
- 参考スコア(独自算出の注目度): 31.734819333921642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in implicit neural representations and differentiable
rendering make it possible to simultaneously recover the geometry and materials
of an object from multi-view RGB images captured under unknown static
illumination. Despite the promising results achieved, indirect illumination is
rarely modeled in previous methods, as it requires expensive recursive path
tracing which makes the inverse rendering computationally intractable. In this
paper, we propose a novel approach to efficiently recovering spatially-varying
indirect illumination. The key insight is that indirect illumination can be
conveniently derived from the neural radiance field learned from input images
instead of being estimated jointly with direct illumination and materials. By
properly modeling the indirect illumination and visibility of direct
illumination, interreflection- and shadow-free albedo can be recovered. The
experiments on both synthetic and real data demonstrate the superior
performance of our approach compared to previous work and its capability to
synthesize realistic renderings under novel viewpoints and illumination. Our
code and data are available at https://zju3dv.github.io/invrender/.
- Abstract(参考訳): 近年の暗黙的な神経表現と微分可能レンダリングの進歩により、未知の静的照明下で撮影された多視点rgb画像から物体の形状と材料を同時に復元することができる。
有望な結果にもかかわらず、逆レンダリングを計算的に難解にする高価な再帰経路トレースを必要とするため、間接照明は従来の方法ではほとんどモデル化されない。
本稿では,空間変動による間接照明を効率的に回収する新しい手法を提案する。
重要な洞察は、間接照明は直接照明や材料と共同で推定されるのではなく、入力画像から学習した神経放射場から便利に導出できるということである。
間接照明と直接照明の視認性を適切にモデル化することにより、相互反射および無影アルベドを回収することができる。
合成データと実データの両方における実験は,これまでの研究よりも優れた性能を示し,新しい視点と照明下での現実的なレンダリングを合成する能力を示している。
コードとデータはhttps://zju3dv.github.io/invrender/で入手できます。
関連論文リスト
- Baking Relightable NeRF for Real-time Direct/Indirect Illumination Rendering [4.812321790984493]
レンダリング方程式の計算コストが高いため、リアルタイムのリライトは困難である。
そこで本研究では,CNNを用いて一次曲面点とレンダリングパラメータを計算する手法を提案する。
両方の蒸留は、事前訓練された教師モデルから訓練され、目に見えない照明条件下でリアルタイムな物理的レンダリングを提供する。
論文 参考訳(メタデータ) (2024-09-16T14:38:26Z) - SIRe-IR: Inverse Rendering for BRDF Reconstruction with Shadow and
Illumination Removal in High-Illuminance Scenes [51.50157919750782]
本稿では,環境マップ,アルベド,粗さにシーンを分解する暗黙のニューラルレンダリング逆アプローチSIRe-IRを提案する。
間接放射場、通常光、可視光、および直接光を同時に正確にモデル化することにより、影と間接光の両方を除去することができる。
強い照明の存在下でも,影の干渉を伴わずに高品質なアルベドと粗さを回収する。
論文 参考訳(メタデータ) (2023-10-19T10:44:23Z) - Diffusion Posterior Illumination for Ambiguity-aware Inverse Rendering [63.24476194987721]
画像からシーン特性を推定する逆レンダリングは、困難な逆問題である。
既存のソリューションの多くは、プリエントを逆レンダリングパイプラインに組み込んで、プラウシブルなソリューションを奨励している。
本稿では,自然照明マップ上で事前学習した確率拡散モデルを最適化フレームワークに統合する手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T12:39:28Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - NeAI: A Pre-convoluted Representation for Plug-and-Play Neural Ambient
Illumination [28.433403714053103]
ニューラル環境照明(NeAI)という枠組みを提案する。
NeAIは、物理的な方法で複雑な照明を扱うための照明モデルとしてNeRF(Neural Radiance Fields)を使用している。
実験は、以前の作品と比較して、ノベルビューレンダリングの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-04-18T06:32:30Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。