論文の概要: Calibrated Uncertainties for Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2312.02350v1
- Date: Mon, 4 Dec 2023 21:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:23:49.503603
- Title: Calibrated Uncertainties for Neural Radiance Fields
- Title(参考訳): 神経放射領域の校正不確実性
- Authors: Niki Amini-Naieni, Tomas Jakab, Andrea Vedaldi, Ronald Clark
- Abstract要約: 我々は、NeRFモデルから不確実性を校正する最初の方法を提案する。
まず、パッチサンプリングに基づいて、各シーンに対して2つのNeRFモデルをトレーニングする。
第二に、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
- 参考スコア(独自算出の注目度): 66.06029344664061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields have achieved remarkable results for novel view
synthesis but still lack a crucial component: precise measurement of
uncertainty in their predictions. Probabilistic NeRF methods have tried to
address this, but their output probabilities are not typically accurately
calibrated, and therefore do not capture the true confidence levels of the
model. Calibration is a particularly challenging problem in the sparse-view
setting, where additional held-out data is unavailable for fitting a calibrator
that generalizes to the test distribution. In this paper, we introduce the
first method for obtaining calibrated uncertainties from NeRF models. Our
method is based on a robust and efficient metric to calculate per-pixel
uncertainties from the predictive posterior distribution. We propose two
techniques that eliminate the need for held-out data. The first, based on patch
sampling, involves training two NeRF models for each scene. The second is a
novel meta-calibrator that only requires the training of one NeRF model. Our
proposed approach for obtaining calibrated uncertainties achieves
state-of-the-art uncertainty in the sparse-view setting while maintaining image
quality. We further demonstrate our method's effectiveness in applications such
as view enhancement and next-best view selection.
- Abstract(参考訳): ニューラル・ラミアンス・フィールドは、新しい視点合成において顕著な結果を得たが、その予測における不確かさの正確な測定という重要な要素を欠いている。
確率的NeRF法はこの問題に対処しようとするが、その出力確率は通常正確に調整されるわけではなく、従ってモデルの真の信頼レベルを捉えない。
キャリブレーションはスパースビュー設定において特に難しい問題であり、テスト分布に一般化するキャリブレータを適合させるために追加のホールドアウトデータが利用できない。
本稿では,nrfモデルから校正不確実性を求める最初の方法を提案する。
本手法は, 後方分布から画素ごとの不確実性を計算するための, 頑健で効率的な測定基準に基づく。
保持データの必要性をなくす2つの手法を提案する。
まず、パッチサンプリングに基づいて、各シーンに2つのNeRFモデルをトレーニングする。
2つ目は、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
提案手法では,画像品質を維持しつつ,不確かさをスパースビュー設定で達成する。
さらに,ビューエンハンスメントや次善のビュー選択といったアプリケーションにおいて,提案手法の有効性を実証する。
関連論文リスト
- Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Calibrated Selective Classification [38.01669058597009]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Posterior Probability Matters: Doubly-Adaptive Calibration for Neural
Predictions in Online Advertising [14.437012696626654]
手法は、モデル予測を後部確率に後処理することを目的としている。
AdaCalibは、モデル予測をキャリブレーションするためにイソトニック関数ファミリーを学ぶ。
実験では、AdaCalibが校正性能を大幅に改善することを確認した。
論文 参考訳(メタデータ) (2022-05-15T14:27:19Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Inferring bias and uncertainty in camera calibration [2.11622808613962]
本稿では,カメラキャリブレーションにおける基本的な誤差源を捉えるための評価手法を提案する。
バイアス検出法は,最小の系統誤差を明らかにし,校正装置の欠陥を明らかにする。
再サンプリングに基づく新しい不確実性推定器は,非理想的条件下での不確実性推定を可能にする。
カメラモデルに依存しない単純な不確実性指標を導出する。
論文 参考訳(メタデータ) (2021-07-28T16:49:39Z) - Improving model calibration with accuracy versus uncertainty
optimization [17.056768055368384]
適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
精度と不確実性の関係を不確実性校正のアンカーとして活用する最適化手法を提案する。
平均場変動推定によるアプローチの実証と最先端手法との比較を行った。
論文 参考訳(メタデータ) (2020-12-14T20:19:21Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。