論文の概要: GaNI: Global and Near Field Illumination Aware Neural Inverse Rendering
- arxiv url: http://arxiv.org/abs/2403.15651v1
- Date: Fri, 22 Mar 2024 23:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:41:55.405656
- Title: GaNI: Global and Near Field Illumination Aware Neural Inverse Rendering
- Title(参考訳): GaNI: ニューラルネットワークの逆レンダリングを意識したグローバルおよび近接場照明
- Authors: Jiaye Wu, Saeed Hadadan, Geng Lin, Matthias Zwicker, David Jacobs, Roni Sengupta,
- Abstract要約: GaNIは、同じ位置にある光とカメラで撮影されたシーンの画像から、幾何学、アルベド、粗さのパラメータを再構築することができる。
既存の逆レンダリング技術と光カメラは、単一の物体のみに焦点を合わせている。
- 参考スコア(独自算出の注目度): 21.584362527926654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present GaNI, a Global and Near-field Illumination-aware neural inverse rendering technique that can reconstruct geometry, albedo, and roughness parameters from images of a scene captured with co-located light and camera. Existing inverse rendering techniques with co-located light-camera focus on single objects only, without modeling global illumination and near-field lighting more prominent in scenes with multiple objects. We introduce a system that solves this problem in two stages; we first reconstruct the geometry powered by neural volumetric rendering NeuS, followed by inverse neural radiosity that uses the previously predicted geometry to estimate albedo and roughness. However, such a naive combination fails and we propose multiple technical contributions that enable this two-stage approach. We observe that NeuS fails to handle near-field illumination and strong specular reflections from the flashlight in a scene. We propose to implicitly model the effects of near-field illumination and introduce a surface angle loss function to handle specular reflections. Similarly, we observe that invNeRad assumes constant illumination throughout the capture and cannot handle moving flashlights during capture. We propose a light position-aware radiance cache network and additional smoothness priors on roughness to reconstruct reflectance. Experimental evaluation on synthetic and real data shows that our method outperforms the existing co-located light-camera-based inverse rendering techniques. Our approach produces significantly better reflectance and slightly better geometry than capture strategies that do not require a dark room.
- Abstract(参考訳): 本稿では,Global and Near-field Illumination-aware Neural Inverse rendering technique(GANI)について述べる。
既存の逆レンダリング技術では、複数のオブジェクトを持つシーンにおいて、地球規模の照明と近接場照明をモデル化することなく、単一のオブジェクトのみに焦点を当てている。
我々はまずニュートラル・ボリューム・レンダリングによる幾何を再構成し,次に従来予測されていた幾何を用いてアルベドと粗さを推定する逆ニューラル・ラジオシティを導入する。
しかし、このような単純な組み合わせは失敗し、この2段階のアプローチを可能にする複数の技術貢献を提案する。
我々は,NeuSが現場の懐中電灯からの近接場照明や強い反射を処理できないことを観察した。
本研究では,近接場照明の効果を暗黙的にモデル化し,表面角損失関数を導入することを提案する。
同様に、invNeRadはキャプチャ全体を通して常に照明を仮定し、キャプチャ中に動くフラッシュライトを処理できないことを観察する。
本稿では,光位置認識型レーダランスキャッシュネットワークと,粗さに先立ってスムーズさを付加して反射率を再構成する手法を提案する。
合成および実データを用いた実験により,本手法は既存の光カメラを用いた逆レンダリング技術よりも優れていた。
提案手法は暗室を必要としない手法よりも反射率と幾何性が著しく向上する。
関連論文リスト
- SIRe-IR: Inverse Rendering for BRDF Reconstruction with Shadow and
Illumination Removal in High-Illuminance Scenes [51.50157919750782]
本稿では,環境マップ,アルベド,粗さにシーンを分解する暗黙のニューラルレンダリング逆アプローチSIRe-IRを提案する。
間接放射場、通常光、可視光、および直接光を同時に正確にモデル化することにより、影と間接光の両方を除去することができる。
強い照明の存在下でも,影の干渉を伴わずに高品質なアルベドと粗さを回収する。
論文 参考訳(メタデータ) (2023-10-19T10:44:23Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - WildLight: In-the-wild Inverse Rendering with a Flashlight [77.31815397135381]
本研究では、未知の環境光下での逆レンダリングのための実用的な測光ソリューションを提案する。
本システムは,スマートフォンで撮影した多視点画像のみを用いて,シーン形状と反射率を復元する。
提案手法は実装が容易で,セットアップも容易で,既存の逆レンダリング技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-03-24T17:59:56Z) - Geometry-aware Single-image Full-body Human Relighting [37.381122678376805]
単一イメージの人間のリライティングは、入力画像をアルベド、形状、照明に分解することで、新たな照明条件下でターゲットの人間をリライティングすることを目的としている。
それまでの方法は、アルベドと照明の絡み合いと、硬い影の欠如に悩まされていた。
我々のフレームワークは、難易度の高い照明条件下で、キャストシャドウのような光現実性の高い高周波影を生成することができる。
論文 参考訳(メタデータ) (2022-07-11T10:21:02Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Self-supervised Outdoor Scene Relighting [92.20785788740407]
本稿では, 自己指導型リライティング手法を提案する。
当社のアプローチは,ユーザの監督なしにインターネットから収集した画像のコーパスのみに基づいて訓練されている。
以上の結果から,写実的かつ物理的に妥当な結果を生成できる技術が,見えない場面に一般化できることが示唆された。
論文 参考訳(メタデータ) (2021-07-07T09:46:19Z) - Towards High Fidelity Monocular Face Reconstruction with Rich
Reflectance using Self-supervised Learning and Ray Tracing [49.759478460828504]
ディープニューラルネットワークエンコーダと異なるレンダリングを組み合わせた手法が、幾何学、照明、反射の非常に高速な単分子再構成の道を開いた。
古典的な最適化ベースのフレームワーク内での単眼顔再構築のためにレイトレースが導入されました。
一般シーンにおける復元品質と堅牢性を大幅に向上させる新しい手法を提案します。
論文 参考訳(メタデータ) (2021-03-29T08:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。