論文の概要: NeRD: Neural Reflectance Decomposition from Image Collections
- arxiv url: http://arxiv.org/abs/2012.03918v2
- Date: Tue, 8 Dec 2020 15:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:35:28.973350
- Title: NeRD: Neural Reflectance Decomposition from Image Collections
- Title(参考訳): NeRD:イメージコレクションからのニューラルリフレクタンス分解
- Authors: Mark Boss, Raphael Braun, Varun Jampani, Jonathan T. Barron, Ce Liu,
Hendrik P.A. Lensch
- Abstract要約: NeRDは、神経放射場に物理ベースのレンダリングを導入することで、この分解を実現する方法である。
非ランベルト反射率、複素幾何、未知の照明さえも高品質のモデルに分解できる。
- 参考スコア(独自算出の注目度): 50.945357655498185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decomposing a scene into its shape, reflectance, and illumination is a
challenging but essential problem in computer vision and graphics. This problem
is inherently more challenging when the illumination is not a single light
source under laboratory conditions but is instead an unconstrained
environmental illumination. Though recent work has shown that implicit
representations can be used to model the radiance field of an object, these
techniques only enable view synthesis and not relighting. Additionally,
evaluating these radiance fields is resource and time-intensive. By decomposing
a scene into explicit representations, any rendering framework can be leveraged
to generate novel views under any illumination in real-time. NeRD is a method
that achieves this decomposition by introducing physically-based rendering to
neural radiance fields. Even challenging non-Lambertian reflectances, complex
geometry, and unknown illumination can be decomposed to high-quality models.
The datasets and code is available at the project page:
https://markboss.me/publication/2021-nerd/
- Abstract(参考訳): シーンをその形状、反射率、照明に分解することは、コンピュータビジョンとグラフィックスにおいて難しいが不可欠な問題である。
この問題は、実験室の条件下で照明が単一の光源ではなく、制約のない環境照明である場合、本質的により困難である。
近年の研究では、暗黙の表現はオブジェクトの放射フィールドのモデル化に使用できることが示されているが、これらの技法はビューの合成のみが可能であり、リライトはできない。
さらに、これらの放射場の評価は資源と時間集約的である。
シーンを明示的な表現に分解することで、任意のレンダリングフレームワークをリアルタイムで新しいビューを生成することができる。
NeRDは、神経放射場に物理ベースのレンダリングを導入することで、この分解を実現する方法である。
非ランベルト反射率、複素幾何、未知の照明さえも高品質のモデルに分解できる。
データセットとコードはプロジェクトページで入手できる。 https://markboss.me/publication/2021-nerd/
関連論文リスト
- IllumiNeRF: 3D Relighting Without Inverse Rendering [25.642960820693947]
対象の環境光と推定対象形状を条件とした画像拡散モデルを用いて,各入力画像をリライトする方法を示す。
ニューラル・レージアンス・フィールド (NeRF) をこれらの信頼された画像で再構成し, 対象光の下で新しいビューを描画する。
この戦略は驚くほど競争力があり、複数のリライトベンチマークで最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2024-06-10T17:59:59Z) - SAMURAI: Shape And Material from Unconstrained Real-world Arbitrary
Image collections [49.3480550339732]
完全に未知のキャプチャ条件下でのオブジェクトの逆レンダリングは、コンピュータビジョンとグラフィックスにおける根本的な課題である。
形状, BRDF, 画像当たりのカメラのポーズと照明を推定するための共同最適化フレームワークを提案する。
本手法は,オブジェクトのオンライン画像収集に利用し,AR/VRなどのいくつかのユースケースに対して,再生可能な3Dアセットを生成する。
論文 参考訳(メタデータ) (2022-05-31T13:16:48Z) - Neural-PIL: Neural Pre-Integrated Lighting for Reflectance Decomposition [50.94535765549819]
シーンをその形状、反射率、照明に分解することは、コンピュータビジョンとグラフィックスの基本的な問題である。
形状, BRDF, 画像ごとの照明を推定できる新しい反射率分解ネットワークを提案する。
我々の分解により、BRDFと光の推定がかなり良くなり、より正確なビュー合成とリライトが可能になります。
論文 参考訳(メタデータ) (2021-10-27T12:17:47Z) - Neural Relightable Participating Media Rendering [26.431106015677]
我々は,グローバル照明の完全なシミュレーションにより,参加メディアのためのニューラル表現を学習する。
提案手法は,最先端手法と比較して,視覚的品質と数値的性能に優れる。
論文 参考訳(メタデータ) (2021-10-25T14:36:15Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。