論文の概要: Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images
- arxiv url: http://arxiv.org/abs/2007.09892v1
- Date: Mon, 20 Jul 2020 05:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:23:19.315335
- Title: Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images
- Title(参考訳): 深部反射量:多視点測光画像からの再現性
- Authors: Sai Bi, Zexiang Xu, Kalyan Sunkavalli, Milo\v{s} Ha\v{s}an, Yannick
Hold-Geoffroy, David Kriegman, Ravi Ramamoorthi
- Abstract要約: 位置決めされた点灯下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
ディープ・リフレクタンス・ボリュームの中心部には、不透明度、表面正規度、リフレクタンス・ボクセル・グリッドからなる新しいボリューム・シーンの表現がある。
学習したリフレクタンスボリュームは編集可能であり、キャプチャされたシーンの素材を修正可能であることを示す。
- 参考スコア(独自算出の注目度): 59.53382863519189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deep learning approach to reconstruct scene appearance from
unstructured images captured under collocated point lighting. At the heart of
Deep Reflectance Volumes is a novel volumetric scene representation consisting
of opacity, surface normal and reflectance voxel grids. We present a novel
physically-based differentiable volume ray marching framework to render these
scene volumes under arbitrary viewpoint and lighting. This allows us to
optimize the scene volumes to minimize the error between their rendered images
and the captured images. Our method is able to reconstruct real scenes with
challenging non-Lambertian reflectance and complex geometry with occlusions and
shadowing. Moreover, it accurately generalizes to novel viewpoints and
lighting, including non-collocated lighting, rendering photorealistic images
that are significantly better than state-of-the-art mesh-based methods. We also
show that our learned reflectance volumes are editable, allowing for modifying
the materials of the captured scenes.
- Abstract(参考訳): 位置決め点照明下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
深い反射ボリュームの中心には、不透明性、表面正規性、反射性ボクセルグリッドからなる新しいボリュームシーン表現がある。
任意の視点と照明下でこれらのシーンのボリュームを描画する物理ベース微分可能体積線マーチングフレームワークを提案する。
これにより、シーンボリュームを最適化し、レンダリングされた画像とキャプチャされた画像との誤差を最小限に抑えることができます。
本手法は,非ランバート反射や複雑な幾何学に挑戦し,オクルージョンやシャドーイングを用いて実際のシーンを再現することができる。
さらに、非凝集照明や、最先端メッシュベースの方法よりもはるかに優れたフォトリアリスティックな画像をレンダリングするなど、新しい視点や照明に正確に一般化する。
また,学習した反射率ボリュームは編集可能であり,撮影シーンの資料を編集できることを示した。
関連論文リスト
- Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Neural Point Catacaustics for Novel-View Synthesis of Reflections [3.5348690973777]
曲面反射板を用いたシーンの新規なビュー合成を可能にするニューラルポイント音響計算のための新しいポイントベース表現を提案する。
ソースコードやその他の補足資料をhttps://repo-sam.inria.fr/ fungraph/neural_catacaustics/で提供します。
論文 参考訳(メタデータ) (2023-01-03T13:28:10Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Free-viewpoint Indoor Neural Relighting from Multi-view Stereo [5.306819482496464]
本稿では,対話型自由視点ナビゲーションが可能な屋内シーンを撮影するためのニューラルリライティングアルゴリズムを提案する。
本手法では, 鋳造影や複雑な光沢物質を連続的にレンダリングしながら, 照明を合成的に変化させることができる。
論文 参考訳(メタデータ) (2021-06-24T20:09:40Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。