論文の概要: Evidential Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2602.23574v1
- Date: Fri, 27 Feb 2026 00:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.18703
- Title: Evidential Neural Radiance Fields
- Title(参考訳): Evidential Neural Radiance Fields
- Authors: Ruxiao Duan, Alex Wong,
- Abstract要約: 我々は、NeRFレンダリングプロセスとシームレスに統合する確率論的アプローチであるEvidential Neural Radiance Fieldsを紹介する。
提案手法は,現状のシーン復元精度と不確実性推定品質を示す。
- 参考スコア(独自算出の注目度): 6.295176669148339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding sources of uncertainty is fundamental to trustworthy three-dimensional scene modeling. While recent advances in neural radiance fields (NeRFs) achieve impressive accuracy in scene reconstruction and novel view synthesis, the lack of uncertainty estimation significantly limits their deployment in safety-critical settings. Existing uncertainty quantification methods for NeRFs fail to capture both aleatoric and epistemic uncertainty. Among those that do quantify one or the other, many of them either compromise rendering quality or incur significant computational overhead to obtain uncertainty estimates. To address these issues, we introduce Evidential Neural Radiance Fields, a probabilistic approach that seamlessly integrates with the NeRF rendering process and enables direct quantification of both aleatoric and epistemic uncertainty from a single forward pass. We compare multiple uncertainty quantification methods on three standardized benchmarks, where our approach demonstrates state-of-the-art scene reconstruction fidelity and uncertainty estimation quality.
- Abstract(参考訳): 不確実性の源を理解することは、信頼できる3次元シーンモデリングの基礎となる。
近年のニューラルレイディアンス場(NeRF)の進歩は、シーン再構成や新しいビュー合成において顕著な精度を実現しているが、不確実性推定の欠如は、安全クリティカルな環境での展開を著しく制限している。
既存のNeRFの不確実性定量法は、アレタリックおよびてんかんの不確実性の両方を捕捉することができない。
どちらか一方を定量化しているものの中で、その多くが品質のレンダリングを妥協するか、不確実性のある推定を得るためにかなりの計算オーバーヘッドを発生させるかのいずれかである。
これらの問題に対処するために、我々は、NeRFレンダリングプロセスとシームレスに統合し、単一の前方パスからアレタリックおよびエピステマティック不確実性の直接定量化を可能にする確率論的アプローチであるEvidential Neural Radiance Fieldsを導入する。
提案手法は,3つの標準ベンチマークにおける複数の不確実性定量化手法を比較し,現状のシーン再構成精度と不確実性推定品質を実証する。
関連論文リスト
- Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Sources of Uncertainty in 3D Scene Reconstruction [19.807599821939633]
本稿では,3次元シーン再構成法に固有の不確実性源を分類する分類法を提案する。
我々は、不確かさの出力やアンサンブルの学習を含む不確実性推定技術を用いて、NeRFおよびGSに基づく手法を拡張した。
本研究では,NeRF/GSをベースとした3次元再構成手法の設計において,様々な不確実性に対処する必要性を強調した。
論文 参考訳(メタデータ) (2024-09-10T10:43:53Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Instant Uncertainty Calibration of NeRFs Using a Meta-calibrator [60.47106421809998]
我々は,1つの前方パスを持つNeRFに対して不確実な校正を行うメタ校正器の概念を導入する。
メタキャリブレータは、見えないシーンを一般化し、NeRFの良好な校正と最先端の不確実性を実現できることを示す。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。