論文の概要: Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of
Possibly Glossy Objects
- arxiv url: http://arxiv.org/abs/2305.17929v1
- Date: Mon, 29 May 2023 07:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:47:27.704458
- Title: Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of
Possibly Glossy Objects
- Title(参考訳): Factored-NeuS: 表面の再構成、イルミネーション、多分グロッシーな物体の材料
- Authors: Yue Fan, Ivan Skorokhodov, Oleg Voynov, Savva Ignatyev, Evgeny
Burnaev, Peter Wonka, Yiqun Wang
- Abstract要約: 提案する多視点画像からシーンの表面, 材料, 照明を復元する手法を開発した。
追加のデータは必要ないし、光沢のあるオブジェクトや明るい照明も扱える。
- 参考スコア(独自算出の注目度): 46.04357263321969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a method that recovers the surface, materials, and illumination of
a scene from its posed multi-view images. In contrast to prior work, it does
not require any additional data and can handle glossy objects or bright
lighting. It is a progressive inverse rendering approach, which consists of
three stages. First, we reconstruct the scene radiance and signed distance
function (SDF) with our novel regularization strategy for specular reflections.
Our approach considers both the diffuse and specular colors, which allows for
handling complex view-dependent lighting effects for surface reconstruction.
Second, we distill light visibility and indirect illumination from the learned
SDF and radiance field using learnable mapping functions. Third, we design a
method for estimating the ratio of incoming direct light represented via
Spherical Gaussians reflected in a specular manner and then reconstruct the
materials and direct illumination of the scene. Experimental results
demonstrate that the proposed method outperforms the current state-of-the-art
in recovering surfaces, materials, and lighting without relying on any
additional data.
- Abstract(参考訳): 本研究では,多視点画像からシーンの表面,材質,照明を復元する手法を開発した。
以前の作業とは対照的に、追加のデータは不要で、光沢のあるオブジェクトや明るい照明を扱うことができる。
プログレッシブな逆レンダリングアプローチであり、3つのステージから構成される。
まず,光反射に対する新たな規則化戦略により,シーンの放射率と符号付き距離関数(SDF)を再構成する。
提案手法では,ディフュージョン色とスペキュラー色の両方を考慮に入れ,複雑な視野依存の照明効果を表面再構成に利用することができる。
次に、学習可能なマッピング関数を用いて、学習したSDFおよび放射場から光可視性と間接照明を蒸留する。
第3に,球状ガウスで表現される直接光の比を特異な方法で推定する手法を設計し,その材料を再構成し,シーンの直接照明を行う。
提案手法は, 表面, 材料, 照明の回収において, 余分なデータに頼ることなく, 現状よりも優れていることを示す。
関連論文リスト
- Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - NeILF++: Inter-Reflectable Light Fields for Geometry and Material
Estimation [36.09503501647977]
我々は静的なシーンの照明を1つのニューラルインシデント光場(NeILF)と1つのニューラルラディアンス場(NeRF)として定式化する。
提案手法は, 幾何再構成の品質, 材料推定精度, 新規なビューレンダリングの忠実度の観点から, 最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-03-30T04:59:48Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - NeILF: Neural Incident Light Field for Physically-based Material
Estimation [31.230609753253713]
本稿では,多視点画像と再構成幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
本フレームワークでは,シーン照明をニューラルインシデント光電場(NeILF)と表現し,多層パーセプトロンでモデル化した表面BRDFとして材料特性を示す。
論文 参考訳(メタデータ) (2022-03-14T15:23:04Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z) - NeRV: Neural Reflectance and Visibility Fields for Relighting and View
Synthesis [45.71507069571216]
本稿では,無拘束の照明により照らされたシーンの画像を入力として入力する手法を提案する。
これにより、任意の照明条件下で新しい視点からレンダリングできる3D表現を生成します。
論文 参考訳(メタデータ) (2020-12-07T18:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。