論文の概要: Multi-view Gradient Consistency for SVBRDF Estimation of Complex Scenes
under Natural Illumination
- arxiv url: http://arxiv.org/abs/2202.13017v1
- Date: Fri, 25 Feb 2022 23:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:10:48.213517
- Title: Multi-view Gradient Consistency for SVBRDF Estimation of Complex Scenes
under Natural Illumination
- Title(参考訳): 自然照度下における複雑景観のSVBRDF推定のための多視点勾配整合性
- Authors: Alen Joy and Charalambos Poullis
- Abstract要約: 本稿では,自然照明下で観察された複雑なシーンの表面反射率を空間的に変化させる手法を提案する。
エンドツーエンドのプロセスでは、シーンの幾何学のモデルと、シーンの表面をキャプチャするいくつかの画像を使用する。
実験により, 複雑な形状を持つ任意の屋外シーンに対して, 現実的な結果が得られた。
- 参考スコア(独自算出の注目度): 6.282068591820945
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a process for estimating the spatially varying surface
reflectance of complex scenes observed under natural illumination. In contrast
to previous methods, our process is not limited to scenes viewed under
controlled lighting conditions but can handle complex indoor and outdoor scenes
viewed under arbitrary illumination conditions. An end-to-end process uses a
model of the scene's geometry and several images capturing the scene's surfaces
from arbitrary viewpoints and under various natural illumination conditions. We
develop a differentiable path tracer that leverages least-square conformal
mapping for handling multiple disjoint objects appearing in the scene. We
follow a two-step optimization process and introduce a multi-view gradient
consistency loss which results in up to 30-50% improvement in the image
reconstruction loss and can further achieve better disentanglement of the
diffuse and specular BRDFs compared to other state-of-the-art. We demonstrate
the process in real-world indoor and outdoor scenes from images in the wild and
show that we can produce realistic renders consistent with actual images using
the estimated reflectance properties. Experiments show that our technique
produces realistic results for arbitrary outdoor scenes with complex geometry.
The source code is publicly available at:
https://gitlab.com/alen.joy/multi-view-gradient-consistency-for-svbrdf-estimation-of-complex-scenes- under-natural-illumination
- Abstract(参考訳): 本稿では,自然照明下で観測される複雑なシーンの表面反射率の空間的変化を推定する手法を提案する。
従来の方法とは対照的に, 制御された照明条件下でのシーンに限らず, 任意の照明条件下での複雑な屋内・屋外のシーンを処理できる。
エンド・ツー・エンドのプロセスでは、シーンの形状のモデルと、任意の視点から様々な自然照明条件下でシーンの表面をキャプチャする複数の画像を使用する。
我々は,最小二乗等角写像を利用して,シーンに現れる複数の不整合オブジェクトを扱う微分可能な経路トレーサを開発した。
我々は2段階の最適化プロセスに従い、画像再構成損失を最大30~50%改善する多視点勾配整合性損失を導入し、他の最先端技術と比較して拡散スペクトルBRDFの歪みを更に改善することができる。
本研究では,野生の画像から実世界の屋内・屋外のシーンを再現し,推定反射特性を用いて実画像と整合したリアルなレンダリングを実現できることを示す。
実験により, 複雑な形状を持つ任意の屋外シーンに対して, 現実的な結果が得られた。
ソースコードは、https://gitlab.com/alen.joy/multi-view-gradient-consistency-for-svbrdf-estimation-of-complex-scenes- under-natural-illuminationで公開されている。
関連論文リスト
- Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Diffusion Posterior Illumination for Ambiguity-aware Inverse Rendering [63.24476194987721]
画像からシーン特性を推定する逆レンダリングは、困難な逆問題である。
既存のソリューションの多くは、プリエントを逆レンダリングパイプラインに組み込んで、プラウシブルなソリューションを奨励している。
本稿では,自然照明マップ上で事前学習した確率拡散モデルを最適化フレームワークに統合する手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T12:39:28Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering [27.41344744849205]
従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-25T14:09:10Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images [59.53382863519189]
位置決めされた点灯下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
ディープ・リフレクタンス・ボリュームの中心部には、不透明度、表面正規度、リフレクタンス・ボクセル・グリッドからなる新しいボリューム・シーンの表現がある。
学習したリフレクタンスボリュームは編集可能であり、キャプチャされたシーンの素材を修正可能であることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。