論文の概要: Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification
- arxiv url: http://arxiv.org/abs/2203.10192v1
- Date: Fri, 18 Mar 2022 23:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:15:52.941722
- Title: Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification
- Title(参考訳): Conditional-Flow NeRF:信頼性不確実性量子化による高精度3次元モデリング
- Authors: Jianxiong Shen and Antonio Agudo and Francesc Moreno-Noguer and Adria
Ruiz
- Abstract要約: Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
- 参考スコア(独自算出の注目度): 44.598503284186336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical limitation of current methods based on Neural Radiance Fields
(NeRF) is that they are unable to quantify the uncertainty associated with the
learned appearance and geometry of the scene. This information is paramount in
real applications such as medical diagnosis or autonomous driving where, to
reduce potentially catastrophic failures, the confidence on the model outputs
must be included into the decision-making process. In this context, we
introduce Conditional-Flow NeRF (CF-NeRF), a novel probabilistic framework to
incorporate uncertainty quantification into NeRF-based approaches. For this
purpose, our method learns a distribution over all possible radiance fields
modelling which is used to quantify the uncertainty associated with the
modelled scene. In contrast to previous approaches enforcing strong constraints
over the radiance field distribution, CF-NeRF learns it in a flexible and fully
data-driven manner by coupling Latent Variable Modelling and Conditional
Normalizing Flows. This strategy allows to obtain reliable uncertainty
estimation while preserving model expressivity. Compared to previous
state-of-the-art methods proposed for uncertainty quantification in NeRF, our
experiments show that the proposed method achieves significantly lower
prediction errors and more reliable uncertainty values for synthetic novel view
and depth-map estimation.
- Abstract(参考訳): ニューラルラジアンス場(NeRF)に基づく現在の手法の限界は、学習されたシーンの外観や幾何学に関する不確実性を定量化できないことである。
この情報は、医療診断や自動運転といった実際のアプリケーションにおいて最重要であり、潜在的に破滅的な障害を減らすためには、モデル出力に対する信頼度を意思決定プロセスに含めなければならない。
この文脈では、不確実な定量化をNeRFベースのアプローチに組み込むための新しい確率的フレームワークである Conditional-Flow NeRF (CF-NeRF) を導入する。
この目的のために,本手法は,モデル化シーンに関連する不確かさを定量化するために用いられる,可能なすべての放射場モデリング上の分布を学習する。
放射界分布に対する強い制約を課す従来のアプローチとは対照的に、CF-NeRFは遅延変数モデリングと条件正規化フローを結合することにより、柔軟で完全なデータ駆動型で学習する。
この戦略により、モデル表現性を保ちながら確実な不確実性推定が得られる。
nerfにおける不確実性定量化のために提案された先行手法と比較して,提案手法は予測誤差を著しく低減し,より信頼性の高い不確実性値が得られることを示す。
関連論文リスト
- Model Free Prediction with Uncertainty Assessment [7.524024486998338]
そこで本研究では,深部推定パラダイムを条件付き平均推定を行うプラットフォームに変換する新しいフレームワークを提案する。
本研究では, 条件付き拡散モデルに対する終端収束率を開発し, 生成した試料の正規性を確立する。
数値実験により,提案手法の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2024-05-21T11:19:50Z) - Taming Uncertainty in Sparse-view Generalizable NeRF via Indirect
Diffusion Guidance [13.006310342461354]
一般化可能なNeRF(Gen-NeRF)は、しばしば不確実性に満ちたスパース入力を持つ未観測領域でぼやけたアーティファクトを生成する。
本稿では, 間接拡散誘導型NeRFフレームワークであるID-NeRFを提案し, 生成的観点からの不確実性に対処する。
論文 参考訳(メタデータ) (2024-02-02T08:39:51Z) - FG-NeRF: Flow-GAN based Probabilistic Neural Radiance Field for
Independence-Assumption-Free Uncertainty Estimation [28.899779240902703]
本研究では,Flow-GANに基づく独立推定自由確率的ニューラル放射場を提案する。
本手法は, 対向学習の生成能力と正規化フローの強力な表現性を組み合わせることで, シーンの密度-放射分布を明示的にモデル化する。
提案手法は,より低いレンダリング誤差と,合成データセットと実世界のデータセットの信頼性の高い不確実性を予測し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-09-28T12:05:08Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。