論文の概要: Bayesian Monocular Depth Refinement via Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2601.03869v1
- Date: Wed, 07 Jan 2026 12:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.192069
- Title: Bayesian Monocular Depth Refinement via Neural Radiance Fields
- Title(参考訳): ニューラルラディアンス場によるベイズ単分子深度微細化
- Authors: Arun Muthukkumar,
- Abstract要約: ニューラルレージアンスフィールド(NeRF)からの深度情報を用いた単眼深度推定を改良する反復的フレームワークであるMDENeRFを提案する。
MDENeRFは,(1)大域構造の初期単分子推定,(2)一画素当たりの不確実性のある摂動視点で訓練されたNeRF,(3)雑音の単分子深度とNeRF深度をベイズ融合する3つの成分から構成される。
我々は,SUN RGB-Dデータセットの室内シーンを用いた重要な指標と実験において,優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular depth estimation has applications in many fields, such as autonomous navigation and extended reality, making it an essential computer vision task. However, current methods often produce smooth depth maps that lack the fine geometric detail needed for accurate scene understanding. We propose MDENeRF, an iterative framework that refines monocular depth estimates using depth information from Neural Radiance Fields (NeRFs). MDENeRF consists of three components: (1) an initial monocular estimate for global structure, (2) a NeRF trained on perturbed viewpoints, with per-pixel uncertainty, and (3) Bayesian fusion of the noisy monocular and NeRF depths. We derive NeRF uncertainty from the volume rendering process to iteratively inject high-frequency fine details. Meanwhile, our monocular prior maintains global structure. We demonstrate superior performance on key metrics and experiments using indoor scenes from the SUN RGB-D dataset.
- Abstract(参考訳): 単眼深度推定は、自律ナビゲーションや拡張現実など、多くの分野で応用されており、コンピュータビジョンの重要なタスクとなっている。
しかし、現在の手法は、正確なシーン理解に必要な詳細な幾何学的詳細を欠いた滑らかな深度マップをしばしば生成している。
ニューラルレージアンスフィールド(NeRF)の深度情報を用いて単眼深度推定を改良する反復的フレームワークであるMDENeRFを提案する。
MDENeRFは,(1)大域構造の初期単分子推定,(2)一画素当たりの不確実性のある摂動視点で訓練されたNeRF,(3)雑音の単分子深度とNeRF深度をベイズ融合する3つの成分から構成される。
ボリュームレンダリングプロセスからNeRFの不確かさを導出し、高周波細部を反復的に注入する。
一方、われわれの単分子的先行性はグローバルな構造を維持している。
我々は,SUN RGB-Dデータセットの室内シーンを用いた重要な指標と実験において,優れた性能を示す。
関連論文リスト
- Depth Priors in Removal Neural Radiance Fields [3.935427742243637]
本論文では、SpinNeRFとZoeDepthのような単分子深度推定モデルを利用して、物体除去におけるNeRFの性能を向上させる新しいパイプラインを提案する。
KITTIデータセット上でのCOLMAPの深い深度再構成の徹底的な評価を行い、COLMAPが深度基底真理を得るためのコスト効率とスケーラブルな代替手段であることを示す。
論文 参考訳(メタデータ) (2024-05-01T16:55:08Z) - NDDepth: Normal-Distance Assisted Monocular Depth Estimation [22.37113584192617]
単眼深度推定のための新しい物理(幾何学)駆動深度学習フレームワークを提案する。
そこで我々は,各位置における深度を導出するために,画素レベル表面の正規化と平面-オリジン距離を出力する新しい正規距離ヘッドを提案する。
我々は,深度不確実性に応じて相補的に深度を洗練する効果的なコントラッシブ・イテレーティブ・リファインメント・モジュールを開発した。
論文 参考訳(メタデータ) (2023-09-19T13:05:57Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Pseudo RGB-D for Self-Improving Monocular SLAM and Depth Prediction [72.30870535815258]
モノクロ深度予測のためのCNNは、周囲の環境の3Dマップを構築するための2つの大きく不連続なアプローチを表している。
本稿では,CNN予測深度を利用してRGB-D特徴量に基づくSLAMを行う,狭義の広義の自己改善フレームワークを提案する。
一方、より原理化された幾何学的SLAMの3次元シーン構造とカメラポーズは、新しい広義のベースライン損失により奥行きネットワークに注入される。
論文 参考訳(メタデータ) (2020-04-22T16:31:59Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。