論文の概要: SPIDR: SDF-based Neural Point Fields for Illumination and Deformation
- arxiv url: http://arxiv.org/abs/2210.08398v1
- Date: Sat, 15 Oct 2022 23:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:30:46.816867
- Title: SPIDR: SDF-based Neural Point Fields for Illumination and Deformation
- Title(参考訳): SPIDR:SDFに基づく照明・変形のためのニューラルポイント場
- Authors: Ruofan Liang, Jiahao Zhang, Haoda Li, Chen Yang, Nandita Vijaykumar
- Abstract要約: ニューラルレイディアンスフィールド(NeRF)のような暗黙の神経表現は、3次元再構成と新しいビュー合成のための有望なアプローチとして最近出現している。
本稿では,新しいハイブリッド型ニューラルネットワークSDF表現であるSPIDRを紹介する。
- 参考スコア(独自算出の注目度): 4.499726057210074
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Implicit neural representations such as neural radiance fields (NeRFs) have
recently emerged as a promising approach for 3D reconstruction and novel view
synthesis. However, NeRF-based methods encode shape, reflectance, and
illumination implicitly in their neural representations, and this makes it
challenging for users to manipulate these properties in the rendered images
explicitly. Existing approaches only enable limited editing of the scene and
deformation of the geometry. Furthermore, no existing work enables accurate
scene illumination after object deformation. In this work, we introduce SPIDR,
a new hybrid neural SDF representation. SPIDR combines point cloud and neural
implicit representations to enable the reconstruction of higher quality meshes
and surfaces for object deformation and lighting estimation. To more accurately
capture environment illumination for scene relighting, we propose a novel
neural implicit model to learn environment light. To enable accurate
illumination updates after deformation, we use the shadow mapping technique to
efficiently approximate the light visibility updates caused by geometry
editing. We demonstrate the effectiveness of SPIDR in enabling high quality
geometry editing and deformation with accurate updates to the illumination of
the scene. In comparison to prior work, we demonstrate significantly better
rendering quality after deformation and lighting estimation.
- Abstract(参考訳): ニューラルレイディアンスフィールド(NeRF)のような暗黙の神経表現は、3次元再構成と新しいビュー合成のための有望なアプローチとして最近出現している。
しかし、NeRFベースの手法は、ニューラル表現における形状、反射率、照明を暗黙的にエンコードするので、ユーザがレンダリングされた画像でこれらの特性を明示的に操作することは困難である。
既存のアプローチでは、シーンの編集と幾何学の変形を制限できるだけである。
さらに、既存の作業では、オブジェクト変形後の正確なシーン照明が不可能である。
本稿では,新しいハイブリッド型ニューラルネットワークSDF表現であるSPIDRを紹介する。
spidrはポイントクラウドとニューラルネットワークの暗黙表現を組み合わせて、オブジェクトの変形と照明推定のための高品質なメッシュと表面の再構築を可能にする。
シーンライティングのための環境照明をより正確に捉えるために,環境光を学習するためのニューラル暗黙モデルを提案する。
変形後の正確な照明更新を可能にするために,シャドウマッピング技術を用いて,幾何編集による視認性更新を効率的に近似する。
シーンの照明を正確に更新し,高品質な幾何編集と変形を可能にするSPIDRの有効性を実証する。
先行研究と比較して, 変形および照明推定後のレンダリング品質が著しく向上した。
関連論文リスト
- AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - PBIR-NIE: Glossy Object Capture under Non-Distant Lighting [30.325872237020395]
グロッシーオブジェクトは自然光下での多視点入力画像から3次元再構成を行う上で重要な課題となる。
PBIR-NIEは, 物体の形状, 材料特性, 周囲の照明を均等に捉えるために設計された逆レンダリングフレームワークである。
論文 参考訳(メタデータ) (2024-08-13T13:26:24Z) - SpecNeRF: Gaussian Directional Encoding for Specular Reflections [43.110815974867315]
近接場照明条件下でのビュー依存効果をより良くモデル化するための学習可能なガウス方向符号化法を提案する。
我々の新しい指向性符号化は、近接場照明の空間的に変化する性質を捉え、事前フィルタされた環境マップの挙動をエミュレートする。
これにより、粗さ係数の異なる任意の3次元位置において、事前変換された明色を効率よく評価することができる。
論文 参考訳(メタデータ) (2023-12-20T15:20:25Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - NeAI: A Pre-convoluted Representation for Plug-and-Play Neural Ambient
Illumination [28.433403714053103]
ニューラル環境照明(NeAI)という枠組みを提案する。
NeAIは、物理的な方法で複雑な照明を扱うための照明モデルとしてNeRF(Neural Radiance Fields)を使用している。
実験は、以前の作品と比較して、ノベルビューレンダリングの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-04-18T06:32:30Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - NeILF: Neural Incident Light Field for Physically-based Material
Estimation [31.230609753253713]
本稿では,多視点画像と再構成幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
本フレームワークでは,シーン照明をニューラルインシデント光電場(NeILF)と表現し,多層パーセプトロンでモデル化した表面BRDFとして材料特性を示す。
論文 参考訳(メタデータ) (2022-03-14T15:23:04Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。