論文の概要: Neural Reflectance Fields for Appearance Acquisition
- arxiv url: http://arxiv.org/abs/2008.03824v2
- Date: Sun, 16 Aug 2020 08:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:42:54.159220
- Title: Neural Reflectance Fields for Appearance Acquisition
- Title(参考訳): 外観獲得のためのニューラルリフレクタンス場
- Authors: Sai Bi, Zexiang Xu, Pratul Srinivasan, Ben Mildenhall, Kalyan
Sunkavalli, Milo\v{s} Ha\v{s}an, Yannick Hold-Geoffroy, David Kriegman, Ravi
Ramamoorthi
- Abstract要約: シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
- 参考スコア(独自算出の注目度): 61.542001266380375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Neural Reflectance Fields, a novel deep scene representation that
encodes volume density, normal and reflectance properties at any 3D point in a
scene using a fully-connected neural network. We combine this representation
with a physically-based differentiable ray marching framework that can render
images from a neural reflectance field under any viewpoint and light. We
demonstrate that neural reflectance fields can be estimated from images
captured with a simple collocated camera-light setup, and accurately model the
appearance of real-world scenes with complex geometry and reflectance. Once
estimated, they can be used to render photo-realistic images under novel
viewpoint and (non-collocated) lighting conditions and accurately reproduce
challenging effects like specularities, shadows and occlusions. This allows us
to perform high-quality view synthesis and relighting that is significantly
better than previous methods. We also demonstrate that we can compose the
estimated neural reflectance field of a real scene with traditional scene
models and render them using standard Monte Carlo rendering engines. Our work
thus enables a complete pipeline from high-quality and practical appearance
acquisition to 3D scene composition and rendering.
- Abstract(参考訳): 完全連結ニューラルネットワークを用いてシーン内の任意の3次元点における体積密度, 正規度, 反射特性をエンコードする, 新たなシーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
簡単なコロケーション・カメラ・ライトで撮影した画像からニューラルリフレクタンス・フィールドを推定でき、複雑な幾何学と反射率で現実のシーンの外観を正確にモデル化することができる。
ひとたび見積もると、新しい視点と(非局所的な)照明条件の下で写真リアルな画像をレンダリングし、特異性、影、閉塞といった挑戦的な効果を正確に再現することができる。
これにより、従来の方法よりもはるかに優れた高品質なビュー合成とリライトを実行できます。
また,従来のシーンモデルを用いて実シーンのニューラルリフレクタンス場を推定し,標準的なモンテカルロレンダリングエンジンを用いてレンダリングできることを実証した。
これにより、高品質で実用的な外観取得から3Dシーン合成とレンダリングまで、完全なパイプラインを実現できる。
関連論文リスト
- Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - ENVIDR: Implicit Differentiable Renderer with Neural Environment
Lighting [9.145875902703345]
ENVIDRは、高精細な反射を伴う表面の高精細なレンダリングと再構成のためのレンダリングとモデリングのためのフレームワークである。
まず、表面光と環境光の相互作用を学習するために、分解レンダリングを用いた新しいニューラルネットワークを提案する。
次に、この学習されたニューラルサーフェスを利用して一般的なシーンを表現するSDFベースのニューラルサーフェスモデルを提案する。
論文 参考訳(メタデータ) (2023-03-23T04:12:07Z) - Neural Point Catacaustics for Novel-View Synthesis of Reflections [3.5348690973777]
曲面反射板を用いたシーンの新規なビュー合成を可能にするニューラルポイント音響計算のための新しいポイントベース表現を提案する。
ソースコードやその他の補足資料をhttps://repo-sam.inria.fr/ fungraph/neural_catacaustics/で提供します。
論文 参考訳(メタデータ) (2023-01-03T13:28:10Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z) - Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images [59.53382863519189]
位置決めされた点灯下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
ディープ・リフレクタンス・ボリュームの中心部には、不透明度、表面正規度、リフレクタンス・ボクセル・グリッドからなる新しいボリューム・シーンの表現がある。
学習したリフレクタンスボリュームは編集可能であり、キャプチャされたシーンの素材を修正可能であることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。