論文の概要: NePF: Neural Photon Field for Single-Stage Inverse Rendering
- arxiv url: http://arxiv.org/abs/2311.11555v1
- Date: Mon, 20 Nov 2023 06:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:56:30.052480
- Title: NePF: Neural Photon Field for Single-Stage Inverse Rendering
- Title(参考訳): NePF: 単段逆レンダリングのためのニューラル光子場
- Authors: Tuen-Yue Tsui and Qin Zou
- Abstract要約: 多視点画像の逆レンダリングに対処するために,新しい単一ステージフレームワークNePF(Neural Photon Field)を提案する。
NePFは、神経暗黙表面の重み関数の背後にある物理的意味を完全に活用することで、この統一を実現する。
我々は本手法を実データと合成データの両方で評価する。
- 参考スコア(独自算出の注目度): 6.977356702921476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel single-stage framework, Neural Photon Field (NePF), to
address the ill-posed inverse rendering from multi-view images. Contrary to
previous methods that recover the geometry, material, and illumination in
multiple stages and extract the properties from various multi-layer perceptrons
across different neural fields, we question such complexities and introduce our
method - a single-stage framework that uniformly recovers all properties. NePF
achieves this unification by fully utilizing the physical implication behind
the weight function of neural implicit surfaces and the view-dependent
radiance. Moreover, we introduce an innovative coordinate-based illumination
model for rapid volume physically-based rendering. To regularize this
illumination, we implement the subsurface scattering model for diffuse
estimation. We evaluate our method on both real and synthetic datasets. The
results demonstrate the superiority of our approach in recovering high-fidelity
geometry and visual-plausible material attributes.
- Abstract(参考訳): 本稿では,多視点画像からの逆レンダリングに対処するために,新しい一段階フレームワークneural photon field (nepf)を提案する。
複数段階の形状, 材料, 照明を復元し, 様々な多層パーセプトロンから様々な特性を抽出する従来の手法とは対照的に, このような複雑さに疑問を呈し, 全特性を均一に回復する単一段階の枠組みである本手法を導入する。
NePFは、神経暗黙表面の重み関数とビュー依存放射率の背後にある物理的含意を完全に活用することで、この統一を実現する。
さらに,高速な物理レンダリングを実現するための,革新的な座標ベースの照明モデルを提案する。
この照明を正規化するために,拡散推定のための地下散乱モデルを実装した。
本手法を実データと合成データの両方で評価する。
その結果,高忠実度形状と視認性材料特性の回復におけるアプローチの優位性を示した。
関連論文リスト
- Anisotropic Neural Representation Learning for High-Quality Neural
Rendering [0.0]
本稿では、学習可能なビュー依存機能を利用してシーン表現と再構成を改善する異方性ニューラル表現学習法を提案する。
我々の手法は柔軟であり、NeRFベースのフレームワークにプラグインできる。
論文 参考訳(メタデータ) (2023-11-30T07:29:30Z) - NeISF: Neural Incident Stokes Field for Geometry and Material Estimation [50.588983686271284]
多視点逆レンダリングは、異なる視点で撮影された一連の画像から形状、材料、照明などのシーンパラメータを推定する問題である。
本稿では,偏光手がかりを用いた曖昧さを低減する多視点逆フレームワークNeISFを提案する。
論文 参考訳(メタデータ) (2023-11-22T06:28:30Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - NeILF++: Inter-Reflectable Light Fields for Geometry and Material
Estimation [36.09503501647977]
我々は静的なシーンの照明を1つのニューラルインシデント光場(NeILF)と1つのニューラルラディアンス場(NeRF)として定式化する。
提案手法は, 幾何再構成の品質, 材料推定精度, 新規なビューレンダリングの忠実度の観点から, 最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-03-30T04:59:48Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - PVSeRF: Joint Pixel-, Voxel- and Surface-Aligned Radiance Field for
Single-Image Novel View Synthesis [52.546998369121354]
シングルビューRGB画像からニューラル放射場を再構成する学習フレームワークPVSeRFを提案する。
本稿では,明示的な幾何学的推論を取り入れ,放射場予測のための画素アラインな特徴と組み合わせることを提案する。
このような幾何学的特徴の導入は、外観と幾何学の絡み合いを改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-10T07:39:47Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。