論文の概要: Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2209.08718v1
- Date: Mon, 19 Sep 2022 02:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:19:55.083560
- Title: Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields
- Title(参考訳): 密度アウェアnerfアンサンブル:神経放射場における予測不確かさの定量化
- Authors: Niko S\"underhauf, Jad Abou-Chakra, Dimity Miller
- Abstract要約: ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
- 参考スコア(独自算出の注目度): 7.380217868660371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that ensembling effectively quantifies model uncertainty in Neural
Radiance Fields (NeRFs) if a density-aware epistemic uncertainty term is
considered. The naive ensembles investigated in prior work simply average
rendered RGB images to quantify the model uncertainty caused by conflicting
explanations of the observed scene. In contrast, we additionally consider the
termination probabilities along individual rays to identify epistemic model
uncertainty due to a lack of knowledge about the parts of a scene unobserved
during training. We achieve new state-of-the-art performance across established
uncertainty quantification benchmarks for NeRFs, outperforming methods that
require complex changes to the NeRF architecture and training regime. We
furthermore demonstrate that NeRF uncertainty can be utilised for next-best
view selection and model refinement.
- Abstract(参考訳): 本研究では,密度認識型てんかん不確実性項を考慮した場合,ニューラルレイディアンスフィールド(NeRF)のモデル不確実性を効果的に定量化することを示す。
先行研究で検討されたナイーブアンサンブルは、単純にレンダリングされたRGB画像を平均化し、観察シーンの矛盾した説明によるモデルの不確実性を定量化する。
対照的に,個々の光線に沿った終了確率を考慮し,訓練中に観察できない場面の知識の欠如による認識モデルの不確かさを同定する。
nerfアーキテクチャとトレーニングレジームに複雑な変更を必要とするメソッドを上回って,確立された不確実性定量化ベンチマークをまたいで,新たな最先端性能を実現する。
さらに,nerfの不確かさを,次善の視点選択とモデルリファインメントに活用できることを実証する。
関連論文リスト
- Taming Uncertainty in Sparse-view Generalizable NeRF via Indirect
Diffusion Guidance [13.006310342461354]
一般化可能なNeRF(Gen-NeRF)は、しばしば不確実性に満ちたスパース入力を持つ未観測領域でぼやけたアーティファクトを生成する。
本稿では, 間接拡散誘導型NeRFフレームワークであるID-NeRFを提案し, 生成的観点からの不確実性に対処する。
論文 参考訳(メタデータ) (2024-02-02T08:39:51Z) - Calibrated Uncertainties for Neural Radiance Fields [66.06029344664061]
我々は、NeRFモデルから不確実性を校正する最初の方法を提案する。
まず、パッチサンプリングに基づいて、各シーンに対して2つのNeRFモデルをトレーニングする。
第二に、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - FisherRF: Active View Selection and Uncertainty Quantification for
Radiance Fields using Fisher Information [32.66184501415286]
本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の問題に対処する。
NeRFは画像のレンダリングと再構成が大幅に進歩しているが、2D画像の可用性の限界は不確かである。
水産情報を活用することにより,地上の真理データを使わずに,レージアンスフィールド内の観測情報を効率的に定量化する。
論文 参考訳(メタデータ) (2023-11-29T18:20:16Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - A General Framework for quantifying Aleatoric and Epistemic uncertainty
in Graph Neural Networks [0.29494468099506893]
Graph Neural Networks(GNN)は、グラフ理論と機械学習をエレガントに統合する強力なフレームワークを提供する。
本稿では,モデル誤差と測定の不確かさからGNNの予測の不確かさを定量化する問題を考察する。
ベイジアンフレームワークにおける両源の不確実性を扱うための統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-20T05:25:40Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。