論文の概要: VDN-NeRF: Resolving Shape-Radiance Ambiguity via View-Dependence
Normalization
- arxiv url: http://arxiv.org/abs/2303.17968v1
- Date: Fri, 31 Mar 2023 11:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:25:09.812537
- Title: VDN-NeRF: Resolving Shape-Radiance Ambiguity via View-Dependence
Normalization
- Title(参考訳): VDN-NeRF:ビュー依存正規化による形状放射曖昧性の解消
- Authors: Bingfan Zhu, Yanchao Yang, Xulong Wang, Youyi Zheng, Leonidas Guibas
- Abstract要約: VDN-NeRF(VDN-NeRF)は、非ランベルト面および動的照明条件下で、より優れた幾何学のために神経放射場(NeRF)を訓練する手法である。
学習したNeRFに符号化された不変情報を蒸留することにより、ビュー依存性を正規化する手法を開発した。
- 参考スコア(独自算出の注目度): 12.903147173026968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose VDN-NeRF, a method to train neural radiance fields (NeRFs) for
better geometry under non-Lambertian surface and dynamic lighting conditions
that cause significant variation in the radiance of a point when viewed from
different angles. Instead of explicitly modeling the underlying factors that
result in the view-dependent phenomenon, which could be complex yet not
inclusive, we develop a simple and effective technique that normalizes the
view-dependence by distilling invariant information already encoded in the
learned NeRFs. We then jointly train NeRFs for view synthesis with
view-dependence normalization to attain quality geometry. Our experiments show
that even though shape-radiance ambiguity is inevitable, the proposed
normalization can minimize its effect on geometry, which essentially aligns the
optimal capacity needed for explaining view-dependent variations. Our method
applies to various baselines and significantly improves geometry without
changing the volume rendering pipeline, even if the data is captured under a
moving light source. Code is available at: https://github.com/BoifZ/VDN-NeRF.
- Abstract(参考訳): 本稿では,非ランベルト面および動的照明条件下で,異なる角度から見ると点の放射率に大きな変動をもたらす,より優れた形状のために神経放射場(nerfs)を訓練する手法であるvdn-nerfを提案する。
ビュー依存現象の原因となる要因を明示的にモデル化する代わりに、学習されたNeRFに符号化された不変情報を蒸留することにより、ビュー依存を正規化するシンプルで効果的な手法を開発した。
次に、ビュー依存正規化によるビュー合成のためのNeRFを共同でトレーニングし、高品質な幾何を実現する。
本実験は, 形状放射のあいまいさは避けられないが, 提案した正規化は幾何学への影響を最小限に抑えることができることを示す。
本手法は, 移動光源の下でデータを捕捉した場合でも, ボリュームレンダリングパイプラインを変更することなく, 様々なベースラインに適用し, 幾何的に改善する。
コードは、https://github.com/BoifZ/VDN-NeRF.comで入手できる。
関連論文リスト
- RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - PNeRFLoc: Visual Localization with Point-based Neural Radiance Fields [54.8553158441296]
統一された点ベース表現に基づく新しい視覚的ローカライゼーションフレームワーク PNeRFLoc を提案する。
一方、PNeRFLocは2次元特徴点と3次元特徴点をマッチングして初期ポーズ推定をサポートする。
一方、レンダリングベースの最適化を用いた新しいビュー合成によるポーズ改善も実現している。
論文 参考訳(メタデータ) (2023-12-17T08:30:00Z) - Rethinking Directional Integration in Neural Radiance Fields [8.012147983948665]
数行のコード変更をNeRF変種に対して行うのと同じくらい簡単なNeRFレンダリング方程式の修正を導入する。
修正方程式は、学習された光線埋め込みによる光場レンダリングと解釈できることを示す。
論文 参考訳(メタデータ) (2023-11-28T18:59:50Z) - NeuRBF: A Neural Fields Representation with Adaptive Radial Basis
Functions [93.02515761070201]
本稿では,信号表現に一般放射状基底を用いる新しいタイプのニューラルネットワークを提案する。
提案手法は, 空間適応性が高く, ターゲット信号により密着可能な, フレキシブルなカーネル位置と形状を持つ一般ラジアルベース上に構築する。
ニューラルラジアンス場再構成に適用した場合,本手法はモデルサイズが小さく,訓練速度が同等である最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2023-09-27T06:32:05Z) - NeRFVS: Neural Radiance Fields for Free View Synthesis via Geometry
Scaffolds [60.1382112938132]
室内における自由ナビゲーションを可能にする新しいニューラル放射場(NeRF)法であるNeRFVSを提案する。
NeRFは、トレーニングビューと大きく異なる新規ビューに苦しむ一方で、入力ビューと同様の新規ビューの画像のレンダリングにおいて、印象的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-13T06:40:08Z) - GeCoNeRF: Few-shot Neural Radiance Fields via Geometric Consistency [31.22435282922934]
我々は、幾何認識整合性正規化を伴う数ショット設定でニューラルラジアンス場(NeRF)を正則化する新しいフレームワークを提案する。
本研究では,最新の数発のNeRFモデルと比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-26T05:14:12Z) - Estimating Neural Reflectance Field from Radiance Field using Tree
Structures [29.431165709718794]
本研究では,物体のニューラルリフレクタンス場(NReF)を,未知の照明下での多視点画像の集合から推定する手法を提案する。
NReFは3次元形状と物体の視認性を表しており、画像のみから推定することは困難である。
提案手法は,Neural Radiance Field (NeRF) をプロキシ表現として利用することでこの問題を解決し,さらに分解を行う。
論文 参考訳(メタデータ) (2022-10-09T10:21:31Z) - PVSeRF: Joint Pixel-, Voxel- and Surface-Aligned Radiance Field for
Single-Image Novel View Synthesis [52.546998369121354]
シングルビューRGB画像からニューラル放射場を再構成する学習フレームワークPVSeRFを提案する。
本稿では,明示的な幾何学的推論を取り入れ,放射場予測のための画素アラインな特徴と組み合わせることを提案する。
このような幾何学的特徴の導入は、外観と幾何学の絡み合いを改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-10T07:39:47Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Ref-NeRF: Structured View-Dependent Appearance for Neural Radiance
Fields [40.72851892972173]
本稿では,NeRFの視界依存放射のパラメータ化を反射放射率と構造表現に置き換えるRef-NeRFを提案する。
また,本モデルの内部的放射率表現は,シーン編集に有用であることを示す。
論文 参考訳(メタデータ) (2021-12-07T18:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。