論文の概要: Calibrated Uncertainties for Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2312.02350v1
- Date: Mon, 4 Dec 2023 21:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:23:49.503603
- Title: Calibrated Uncertainties for Neural Radiance Fields
- Title(参考訳): 神経放射領域の校正不確実性
- Authors: Niki Amini-Naieni, Tomas Jakab, Andrea Vedaldi, Ronald Clark
- Abstract要約: 我々は、NeRFモデルから不確実性を校正する最初の方法を提案する。
まず、パッチサンプリングに基づいて、各シーンに対して2つのNeRFモデルをトレーニングする。
第二に、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
- 参考スコア(独自算出の注目度): 66.06029344664061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields have achieved remarkable results for novel view
synthesis but still lack a crucial component: precise measurement of
uncertainty in their predictions. Probabilistic NeRF methods have tried to
address this, but their output probabilities are not typically accurately
calibrated, and therefore do not capture the true confidence levels of the
model. Calibration is a particularly challenging problem in the sparse-view
setting, where additional held-out data is unavailable for fitting a calibrator
that generalizes to the test distribution. In this paper, we introduce the
first method for obtaining calibrated uncertainties from NeRF models. Our
method is based on a robust and efficient metric to calculate per-pixel
uncertainties from the predictive posterior distribution. We propose two
techniques that eliminate the need for held-out data. The first, based on patch
sampling, involves training two NeRF models for each scene. The second is a
novel meta-calibrator that only requires the training of one NeRF model. Our
proposed approach for obtaining calibrated uncertainties achieves
state-of-the-art uncertainty in the sparse-view setting while maintaining image
quality. We further demonstrate our method's effectiveness in applications such
as view enhancement and next-best view selection.
- Abstract(参考訳): ニューラル・ラミアンス・フィールドは、新しい視点合成において顕著な結果を得たが、その予測における不確かさの正確な測定という重要な要素を欠いている。
確率的NeRF法はこの問題に対処しようとするが、その出力確率は通常正確に調整されるわけではなく、従ってモデルの真の信頼レベルを捉えない。
キャリブレーションはスパースビュー設定において特に難しい問題であり、テスト分布に一般化するキャリブレータを適合させるために追加のホールドアウトデータが利用できない。
本稿では,nrfモデルから校正不確実性を求める最初の方法を提案する。
本手法は, 後方分布から画素ごとの不確実性を計算するための, 頑健で効率的な測定基準に基づく。
保持データの必要性をなくす2つの手法を提案する。
まず、パッチサンプリングに基づいて、各シーンに2つのNeRFモデルをトレーニングする。
2つ目は、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
提案手法では,画像品質を維持しつつ,不確かさをスパースビュー設定で達成する。
さらに,ビューエンハンスメントや次善のビュー選択といったアプリケーションにおいて,提案手法の有効性を実証する。
関連論文リスト
- OPONeRF: One-Point-One NeRF for Robust Neural Rendering [70.56874833759241]
そこで我々は,ロバストなシーンレンダリングのためのOne-Point-One NeRF (OPONeRF) フレームワークを提案する。
物体の動き、光の変化、データ汚染といった小さなが予測不可能な摂動は、現実の3Dシーンに広く存在している。
実験の結果,OPONeRFは各種評価指標において最先端のNeRFよりも優れていた。
論文 参考訳(メタデータ) (2024-09-30T07:49:30Z) - Clean-NeRF: Reformulating NeRF to account for View-Dependent
Observations [67.54358911994967]
本稿では,複雑なシーンにおける3次元再構成と新しいビューレンダリングのためのクリーンネRFを提案する。
clean-NeRFはプラグインとして実装することができ、既存のNeRFベースのメソッドを追加入力なしですぐに利用することができる。
論文 参考訳(メタデータ) (2023-03-26T12:24:31Z) - Self-NeRF: A Self-Training Pipeline for Few-Shot Neural Radiance Fields [17.725937326348994]
入力ビューの少ない放射場を反復的に洗練する自己進化型NeRFであるSelf-NeRFを提案する。
各イテレーションでは、予測された色や、前回のイテレーションからモデルが生成した歪んだピクセルで、目に見えないビューをラベル付けします。
これらの拡張された擬似ビューは、NeRFの性能を低下させる色やワープアーティファクトのインプレクションによって悩まされる。
論文 参考訳(メタデータ) (2023-03-10T08:22:36Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - Gradient-based Uncertainty for Monocular Depth Estimation [5.7575052885308455]
単眼深度推定では、移動物体や反射材料のような画像コンテキストの乱れは、容易に誤った予測につながる。
本稿では,すでに訓練済みで固定された深度推定モデルに対するポストホック不確実性推定手法を提案する。
提案手法は,ニューラルネットワークの再トレーニングを必要とせずに,KITTI と NYU Depth V2 ベンチマークにおける最先端の不確実性推定結果を実現する。
論文 参考訳(メタデータ) (2022-08-03T12:21:02Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - Deep Bayesian inference for seismic imaging with tasks [0.6445605125467573]
本稿では,ベイズ推定と深部ニューラルネットワークの手法を用いて,地震探査における不確実性を画像上で行うタスクの不確実性に変換することを提案する。
画像中のノイズによる不確かさを、自動的に追従された地平面の信頼区間に変換するための体系的手法を提案する。
論文 参考訳(メタデータ) (2021-10-10T15:25:44Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。