論文の概要: A View-consistent Sampling Method for Regularized Training of Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2507.04408v1
- Date: Sun, 06 Jul 2025 14:48:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.16562
- Title: A View-consistent Sampling Method for Regularized Training of Neural Radiance Fields
- Title(参考訳): ニューラルラジアンスフィールドの正規化学習のためのビュー一貫性サンプリング法
- Authors: Aoxiang Fan, Corentin Dumery, Nicolas Talabot, Pascal Fua,
- Abstract要約: 我々は、NeRFトレーニングを正規化するために、固定深度値推定の代わりにビュー一貫性分布を用いることを提案する。
ビュー・一貫性分布からサンプリングすることにより、NeRFのトレーニングに暗黙の正規化が課される。
また,サンプリング手法と連動して機能する深度処理損失を利用して,故障モードの除去に有効な正則化を行う。
- 参考スコア(独自算出の注目度): 46.03878128080501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) has emerged as a compelling framework for scene representation and 3D recovery. To improve its performance on real-world data, depth regularizations have proven to be the most effective ones. However, depth estimation models not only require expensive 3D supervision in training, but also suffer from generalization issues. As a result, the depth estimations can be erroneous in practice, especially for outdoor unbounded scenes. In this paper, we propose to employ view-consistent distributions instead of fixed depth value estimations to regularize NeRF training. Specifically, the distribution is computed by utilizing both low-level color features and high-level distilled features from foundation models at the projected 2D pixel-locations from per-ray sampled 3D points. By sampling from the view-consistency distributions, an implicit regularization is imposed on the training of NeRF. We also utilize a depth-pushing loss that works in conjunction with the sampling technique to jointly provide effective regularizations for eliminating the failure modes. Extensive experiments conducted on various scenes from public datasets demonstrate that our proposed method can generate significantly better novel view synthesis results than state-of-the-art NeRF variants as well as different depth regularization methods.
- Abstract(参考訳): Neural Radiance Fields (NeRF)は、シーン表現と3Dリカバリのための魅力的なフレームワークとして登場した。
実世界のデータの性能を改善するために、深度正規化が最も効果的であることが証明されている。
しかし、深度推定モデルは、訓練に高価な3D監視を必要とするだけでなく、一般化の問題にも悩まされる。
その結果、特に屋外の非有界シーンでは、実際の深さ推定は誤りとなる。
本論文では,NeRFトレーニングを正規化するために,固定深度値推定の代わりにビュー一貫性分布を用いることを提案する。
具体的には, 基礎モデルの低レベル色特徴と高レベル蒸留特徴の両方を, 照射3D点当たりの投影2次元画素配置に利用することにより, 分布を計算した。
ビュー・一貫性分布からサンプリングすることにより、NeRFのトレーニングに暗黙の正規化が課される。
また,サンプリング手法と連動して機能する深度処理損失を利用して,故障モードの除去に有効な正則化を行う。
公開データセットの様々な場面で行った大規模な実験により、提案手法は、最先端のNeRF変種と異なる深度正規化法よりも、はるかに優れた新規ビュー合成結果が得られることが示された。
関連論文リスト
- See In Detail: Enhancing Sparse-view 3D Gaussian Splatting with Local Depth and Semantic Regularization [14.239772421978373]
3次元ガウス散乱(3DGS)は、新規なビュー合成において顕著な性能を示した。
しかし、そのレンダリング品質は、粗いインフットビューによって劣化し、歪んだコンテンツと細部が減少する。
本稿では,事前情報を取り入れたスパースビュー3DGS法を提案する。
LLFFデータセット上でPSNRを最大0.4dB改善し、最先端の新規ビュー合成手法より優れる。
論文 参考訳(メタデータ) (2025-01-20T14:30:38Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。