論文の概要: CoDe-NeRF: Neural Rendering via Dynamic Coefficient Decomposition
- arxiv url: http://arxiv.org/abs/2508.06632v1
- Date: Fri, 08 Aug 2025 18:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.480492
- Title: CoDe-NeRF: Neural Rendering via Dynamic Coefficient Decomposition
- Title(参考訳): CoDe-NeRF:動的係数分解によるニューラルレンダリング
- Authors: Wenpeng Xing, Jie Chen, Zaifeng Yang, Tiancheng Zhao, Gaolei Li, Changting Lin, Yike Guo, Meng Han,
- Abstract要約: 動的係数分解に基づくニューラルネットワークレンダリングフレームワークを提案する。
我々のアプローチは、複雑な外観を、固有の材料特性を符号化する共有静的ニューラルネットワークベースに分解する。
提案手法は,既存の手法と比較して,よりシャープでリアルなスペクトルハイライトを生成できることを示す。
- 参考スコア(独自算出の注目度): 28.96821860867129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) have shown impressive performance in novel view synthesis, but challenges remain in rendering scenes with complex specular reflections and highlights. Existing approaches may produce blurry reflections due to entanglement between lighting and material properties, or encounter optimization instability when relying on physically-based inverse rendering. In this work, we present a neural rendering framework based on dynamic coefficient decomposition, aiming to improve the modeling of view-dependent appearance. Our approach decomposes complex appearance into a shared, static neural basis that encodes intrinsic material properties, and a set of dynamic coefficients generated by a Coefficient Network conditioned on view and illumination. A Dynamic Radiance Integrator then combines these components to synthesize the final radiance. Experimental results on several challenging benchmarks suggest that our method can produce sharper and more realistic specular highlights compared to existing techniques. We hope that this decomposition paradigm can provide a flexible and effective direction for modeling complex appearance in neural scene representations.
- Abstract(参考訳): ニューラル・ラディアンス・フィールド(Neural Radiance Fields、NeRF)は、新しいビュー合成において印象的な性能を示したが、複雑なスペクトル反射とハイライトを持つシーンのレンダリングには課題が残っている。
既存のアプローチでは、照明と材料特性の絡み合いによるぼやけた反射や、物理的にベースの逆レンダリングに依存する場合の最適化不安定に遭遇することがある。
本研究では,動的係数分解に基づくニューラルレンダリングフレームワークを提案する。
提案手法は,複雑な外観を,固有材料特性を符号化した共有静的ニューラルネットワークベースと,ビューと照明を条件とした係数ネットワークによって生成された動的係数の集合に分解する。
動的放射積分器はこれらの成分を組み合わせて最終放射を合成する。
いくつかの挑戦的ベンチマークによる実験結果から,本手法は既存の手法と比較して,よりシャープでリアルなスペクトルハイライトを得られることが示唆された。
我々は、この分解パラダイムが神経シーン表現の複雑な外観をモデル化するための柔軟で効果的な方向を提供することを期待している。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - Anisotropic Neural Representation Learning for High-Quality Neural
Rendering [0.0]
本稿では、学習可能なビュー依存機能を利用してシーン表現と再構成を改善する異方性ニューラル表現学習法を提案する。
我々の手法は柔軟であり、NeRFベースのフレームワークにプラグインできる。
論文 参考訳(メタデータ) (2023-11-30T07:29:30Z) - NePF: Neural Photon Field for Single-Stage Inverse Rendering [6.977356702921476]
多視点画像の逆レンダリングに対処するために,新しい単一ステージフレームワークNePF(Neural Photon Field)を提案する。
NePFは、神経暗黙表面の重み関数の背後にある物理的意味を完全に活用することで、この統一を実現する。
我々は本手法を実データと合成データの両方で評価する。
論文 参考訳(メタデータ) (2023-11-20T06:15:46Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。