論文の概要: IBL-NeRF: Image-Based Lighting Formulation of Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2210.08202v1
- Date: Sat, 15 Oct 2022 05:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:01:03.077857
- Title: IBL-NeRF: Image-Based Lighting Formulation of Neural Radiance Fields
- Title(参考訳): IBL-NeRF:画像に基づくニューラルラジアンス場の照明定式化
- Authors: Changwoon Choi, Juhyeon Kim, Young Min Kim
- Abstract要約: 大規模屋内シーンのニューラル放射場(NeRF)を固有成分に分解するIRB-NeRFを提案する。
複雑なオブジェクトレイアウトとライト構成を持つシーンで、以前の作業では処理できなかったパフォーマンスを実演する。
- 参考スコア(独自算出の注目度): 4.915848175689936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose IBL-NeRF, which decomposes the neural radiance fields (NeRF) of
large-scale indoor scenes into intrinsic components. Previous approaches for
the inverse rendering of NeRF transform the implicit volume to fit the
rendering pipeline of explicit geometry, and approximate the views of
segmented, isolated objects with environment lighting. In contrast, our inverse
rendering extends the original NeRF formulation to capture the spatial
variation of lighting within the scene volume, in addition to surface
properties. Specifically, the scenes of diverse materials are decomposed into
intrinsic components for image-based rendering, namely, albedo, roughness,
surface normal, irradiance, and prefiltered radiance. All of the components are
inferred as neural images from MLP, which can model large-scale general scenes.
By adopting the image-based formulation of NeRF, our approach inherits superior
visual quality and multi-view consistency for synthesized images. We
demonstrate the performance on scenes with complex object layouts and light
configurations, which could not be processed in any of the previous works.
- Abstract(参考訳): 大規模屋内シーンのニューラル放射場(NeRF)を固有成分に分解するIRB-NeRFを提案する。
NeRFの逆レンダリングに対する従来のアプローチは、暗黙のボリュームを明示的な幾何学のレンダリングパイプラインに適合させ、セグメンテーションされた孤立したオブジェクトのビューを環境照明に近似させる。
対照的に、我々の逆レンダリングは、表面特性に加えて、シーンボリューム内の光の空間的変動を捉えるために、元のNeRF定式化を拡張している。
具体的には、多彩な素材のシーンを、画像ベースのレンダリング、すなわちアルベド、粗さ、表面の正常性、照射性、および予めフィルターされた放射率に分解する。
すべてのコンポーネントは、大規模な一般的なシーンをモデル化可能な、MLPのニューラルイメージとして推論される。
画像に基づくNeRFの定式化を採用することにより,合成画像の視覚的品質と多視点整合性を継承する。
我々は、複雑なオブジェクトレイアウトとライトコンフィグレーションを備えたシーンのパフォーマンスをデモするが、これは以前のどの作業でも処理できない。
関連論文リスト
- Relighting Scenes with Object Insertions in Neural Radiance Fields [24.18050535794117]
本研究では,物体のNeRFをシーンのNeRFに挿入するための新しいNeRFパイプラインを提案する。
提案手法は,広範囲な実験評価において,現実的な照明効果を実現する。
論文 参考訳(メタデータ) (2024-06-21T00:58:58Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - SplitNeRF: Split Sum Approximation Neural Field for Joint Geometry,
Illumination, and Material Estimation [65.99344783327054]
本稿では, 実世界の物体の形状, 材料特性, 照明特性を推定してデジタル化する手法を提案する。
提案手法は,実時間物理ベースのレンダリングに画像ベースの照明で使用される分割和近似を,レーダランスニューラルネットワーク(NeRF)パイプラインに組み込む。
提案手法は,NVIDIA A100 GPUを1つのGPUで1時間に1ドル程度のトレーニングをした後で,最先端のリライト品質を実現することができる。
論文 参考訳(メタデータ) (2023-11-28T10:36:36Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - NeAI: A Pre-convoluted Representation for Plug-and-Play Neural Ambient
Illumination [28.433403714053103]
ニューラル環境照明(NeAI)という枠組みを提案する。
NeAIは、物理的な方法で複雑な照明を扱うための照明モデルとしてNeRF(Neural Radiance Fields)を使用している。
実験は、以前の作品と比較して、ノベルビューレンダリングの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-04-18T06:32:30Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。