論文の概要: Neural-PIL: Neural Pre-Integrated Lighting for Reflectance Decomposition
- arxiv url: http://arxiv.org/abs/2110.14373v1
- Date: Wed, 27 Oct 2021 12:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:57:34.420974
- Title: Neural-PIL: Neural Pre-Integrated Lighting for Reflectance Decomposition
- Title(参考訳): ニューラルPIL:反射分解のためのニューラルインテグレート照明
- Authors: Mark Boss, Varun Jampani, Raphael Braun, Ce Liu, Jonathan T. Barron,
Hendrik P.A. Lensch
- Abstract要約: シーンをその形状、反射率、照明に分解することは、コンピュータビジョンとグラフィックスの基本的な問題である。
形状, BRDF, 画像ごとの照明を推定できる新しい反射率分解ネットワークを提案する。
我々の分解により、BRDFと光の推定がかなり良くなり、より正確なビュー合成とリライトが可能になります。
- 参考スコア(独自算出の注目度): 50.94535765549819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decomposing a scene into its shape, reflectance and illumination is a
fundamental problem in computer vision and graphics. Neural approaches such as
NeRF have achieved remarkable success in view synthesis, but do not explicitly
perform decomposition and instead operate exclusively on radiance (the product
of reflectance and illumination). Extensions to NeRF, such as NeRD, can perform
decomposition but struggle to accurately recover detailed illumination, thereby
significantly limiting realism. We propose a novel reflectance decomposition
network that can estimate shape, BRDF, and per-image illumination given a set
of object images captured under varying illumination. Our key technique is a
novel illumination integration network called Neural-PIL that replaces a costly
illumination integral operation in the rendering with a simple network query.
In addition, we also learn deep low-dimensional priors on BRDF and illumination
representations using novel smooth manifold auto-encoders. Our decompositions
can result in considerably better BRDF and light estimates enabling more
accurate novel view-synthesis and relighting compared to prior art. Project
page: https://markboss.me/publication/2021-neural-pil/
- Abstract(参考訳): シーンを形状、反射率、照明に分解することはコンピュータビジョンとグラフィックスの根本的な問題である。
NeRFのようなニューラルアプローチは、ビュー合成において顕著に成功したが、分解を明示的に実行せず、放射能(反射と照明の産物)のみにのみ作用する。
NeRDのようなNeRFの拡張は分解を行うことができるが、詳細な照明を正確に回復することは困難であり、現実性を大幅に制限する。
本研究では, 形状, BRDF, 画像ごとの照度を, 異なる照度で撮影した物体画像の集合から推定できる新しい反射率分解ネットワークを提案する。
我々のキーとなる技術はニューラルPILと呼ばれる新しい照明統合ネットワークで、レンダリングにおいて高価な照明積分演算を単純なネットワーククエリで置き換える。
さらに,新しいスムーズな多様体自動エンコーダを用いてBRDFと照明表現の低次元先行を学習する。
我々の分解はBRDFと光推定の精度が向上し、従来の技術と比べてより正確なビュー合成とリライトが可能となる。
プロジェクトページ: https://markboss.me/publication/2021-neural-pil/
関連論文リスト
- Neural Gaffer: Relighting Any Object via Diffusion [43.87941408722868]
我々はニューラル・ギャファーと呼ばれる新しいエンドツーエンドの2次元ライティング拡散モデルを提案する。
我々のモデルは、任意の物体の1つの画像を取り、新しい照明条件下で、正確で高品質な信頼された画像を合成することができる。
本稿では,インターネット画像の総合化と精度の両面からモデルを評価し,その利点を一般化と精度の両面から示す。
論文 参考訳(メタデータ) (2024-06-11T17:50:15Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NeAI: A Pre-convoluted Representation for Plug-and-Play Neural Ambient
Illumination [28.433403714053103]
ニューラル環境照明(NeAI)という枠組みを提案する。
NeAIは、物理的な方法で複雑な照明を扱うための照明モデルとしてNeRF(Neural Radiance Fields)を使用している。
実験は、以前の作品と比較して、ノベルビューレンダリングの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-04-18T06:32:30Z) - Modeling Indirect Illumination for Inverse Rendering [31.734819333921642]
本稿では,空間的に変化する間接照明を効率よく回収するための新しい手法を提案する。
重要な洞察は、間接照明は入力画像から学習した神経放射場から便利に導出できるということである。
合成データと実データの両方の実験は、従来の研究と比較して、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2022-04-14T09:10:55Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z) - NeRD: Neural Reflectance Decomposition from Image Collections [50.945357655498185]
NeRDは、神経放射場に物理ベースのレンダリングを導入することで、この分解を実現する方法である。
非ランベルト反射率、複素幾何、未知の照明さえも高品質のモデルに分解できる。
論文 参考訳(メタデータ) (2020-12-07T18:45:57Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。