論文の概要: Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2209.08718v1
- Date: Mon, 19 Sep 2022 02:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:19:55.083560
- Title: Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields
- Title(参考訳): 密度アウェアnerfアンサンブル:神経放射場における予測不確かさの定量化
- Authors: Niko S\"underhauf, Jad Abou-Chakra, Dimity Miller
- Abstract要約: ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
- 参考スコア(独自算出の注目度): 7.380217868660371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that ensembling effectively quantifies model uncertainty in Neural
Radiance Fields (NeRFs) if a density-aware epistemic uncertainty term is
considered. The naive ensembles investigated in prior work simply average
rendered RGB images to quantify the model uncertainty caused by conflicting
explanations of the observed scene. In contrast, we additionally consider the
termination probabilities along individual rays to identify epistemic model
uncertainty due to a lack of knowledge about the parts of a scene unobserved
during training. We achieve new state-of-the-art performance across established
uncertainty quantification benchmarks for NeRFs, outperforming methods that
require complex changes to the NeRF architecture and training regime. We
furthermore demonstrate that NeRF uncertainty can be utilised for next-best
view selection and model refinement.
- Abstract(参考訳): 本研究では,密度認識型てんかん不確実性項を考慮した場合,ニューラルレイディアンスフィールド(NeRF)のモデル不確実性を効果的に定量化することを示す。
先行研究で検討されたナイーブアンサンブルは、単純にレンダリングされたRGB画像を平均化し、観察シーンの矛盾した説明によるモデルの不確実性を定量化する。
対照的に,個々の光線に沿った終了確率を考慮し,訓練中に観察できない場面の知識の欠如による認識モデルの不確かさを同定する。
nerfアーキテクチャとトレーニングレジームに複雑な変更を必要とするメソッドを上回って,確立された不確実性定量化ベンチマークをまたいで,新たな最先端性能を実現する。
さらに,nerfの不確かさを,次善の視点選択とモデルリファインメントに活用できることを実証する。
関連論文リスト
- LoGU: Long-form Generation with Uncertainty Expressions [49.76417603761989]
不確実性を伴う長文生成(LoGU)の課題について紹介する。
不確実性抑制と不確実性誤認の2つの主要な課題を特定します。
当社のフレームワークでは,原子的クレームに基づく不確実性を改善するため,分割・分散戦略を採用している。
提案手法が精度を向上し,幻覚を低減し,応答の包括性を維持できることを示す。
論文 参考訳(メタデータ) (2024-10-18T09:15:35Z) - OPONeRF: One-Point-One NeRF for Robust Neural Rendering [70.56874833759241]
そこで我々は,ロバストなシーンレンダリングのためのOne-Point-One NeRF (OPONeRF) フレームワークを提案する。
物体の動き、光の変化、データ汚染といった小さなが予測不可能な摂動は、現実の3Dシーンに広く存在している。
実験の結果,OPONeRFは各種評価指標において最先端のNeRFよりも優れていた。
論文 参考訳(メタデータ) (2024-09-30T07:49:30Z) - Taming Uncertainty in Sparse-view Generalizable NeRF via Indirect
Diffusion Guidance [13.006310342461354]
一般化可能なNeRF(Gen-NeRF)は、しばしば不確実性に満ちたスパース入力を持つ未観測領域でぼやけたアーティファクトを生成する。
本稿では, 間接拡散誘導型NeRFフレームワークであるID-NeRFを提案し, 生成的観点からの不確実性に対処する。
論文 参考訳(メタデータ) (2024-02-02T08:39:51Z) - Instant Uncertainty Calibration of NeRFs Using a Meta-calibrator [60.47106421809998]
我々は,1つの前方パスを持つNeRFに対して不確実な校正を行うメタ校正器の概念を導入する。
メタキャリブレータは、見えないシーンを一般化し、NeRFの良好な校正と最先端の不確実性を実現できることを示す。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - A General Framework for quantifying Aleatoric and Epistemic uncertainty
in Graph Neural Networks [0.29494468099506893]
Graph Neural Networks(GNN)は、グラフ理論と機械学習をエレガントに統合する強力なフレームワークを提供する。
本稿では,モデル誤差と測定の不確かさからGNNの予測の不確かさを定量化する問題を考察する。
ベイジアンフレームワークにおける両源の不確実性を扱うための統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-20T05:25:40Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。