論文の概要: PH-Dropout: Practical Epistemic Uncertainty Quantification for View Synthesis
- arxiv url: http://arxiv.org/abs/2410.05468v2
- Date: Fri, 11 Oct 2024 18:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 18:28:00.615974
- Title: PH-Dropout: Practical Epistemic Uncertainty Quantification for View Synthesis
- Title(参考訳): PH-Dropout:ビュー合成のための実用的てんかん不確実性定量化
- Authors: Chuanhao Sun, Thanos Triantafyllou, Anthos Makris, Maja Drmač, Kai Xu, Luo Mai, Mahesh K. Marina,
- Abstract要約: 本稿では,最初のリアルタイムかつ高精度な疫学不確実性推定手法であるPH-Dropoutを紹介する。
本稿では,関数近似の観点からNeRF法とGS法を再検討する。
- 参考スコア(独自算出の注目度): 8.536325924539398
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: View synthesis using Neural Radiance Fields (NeRF) and Gaussian Splatting (GS) has demonstrated impressive fidelity in rendering real-world scenarios. However, practical methods for accurate and efficient epistemic Uncertainty Quantification (UQ) in view synthesis are lacking. Existing approaches for NeRF either introduce significant computational overhead (e.g., ``10x increase in training time" or ``10x repeated training") or are limited to specific uncertainty conditions or models. Notably, GS models lack any systematic approach for comprehensive epistemic UQ. This capability is crucial for improving the robustness and scalability of neural view synthesis, enabling active model updates, error estimation, and scalable ensemble modeling based on uncertainty. In this paper, we revisit NeRF and GS-based methods from a function approximation perspective, identifying key differences and connections in 3D representation learning. Building on these insights, we introduce PH-Dropout (Post hoc Dropout), the first real-time and accurate method for epistemic uncertainty estimation that operates directly on pre-trained NeRF and GS models. Extensive evaluations validate our theoretical findings and demonstrate the effectiveness of PH-Dropout.
- Abstract(参考訳): Neural Radiance Fields (NeRF) と Gaussian Splatting (GS) を用いたビュー合成は、実世界のシナリオのレンダリングにおいて顕著な忠実さを示した。
しかし, 視線合成における精度, 効率のよい不確実性定量化(UQ)の実践的方法が欠落している。
既存のNeRFのアプローチでは、大きな計算オーバーヘッド(例: ``10x のトレーニング時間の増加" や ``10x の繰り返しトレーニング)を導入するか、特定の不確実性条件やモデルに制限される。
特に、GSモデルは包括的てんかんUQに対する体系的なアプローチを欠いている。
この機能は、ニューラルネットワークビュー合成の堅牢性とスケーラビリティを改善し、アクティブなモデル更新、エラー推定、不確実性に基づいたスケーラブルなアンサンブルモデリングを可能にするために重要である。
本稿では,関数近似の観点からNeRFとGSに基づく手法を再検討し,3次元表現学習における重要な違いと接続を同定する。
これらの知見に基づいて, PH-Dropout (Post hoc Dropout) の導入を行った。
以上の結果から,PH-Dropoutの有効性が示唆された。
関連論文リスト
- Estimating Epistemic and Aleatoric Uncertainty with a Single Model [5.871583927216653]
我々は,ハイパー拡散モデル(HyperDM)の新しいアプローチを提案する。
HyperDMは、予測精度を、場合によってはマルチモデルアンサンブルに匹敵する。
我々は,X線CTと気象温度予測の2つの異なる実世界の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-02-05T19:39:52Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Conditional-Flow NeRF: Accurate 3D Modelling with Reliable Uncertainty
Quantification [44.598503284186336]
Conditional-Flow NeRF (CF-NeRF) は、不確実な定量化をNeRFベースのアプローチに組み込む新しい確率的フレームワークである。
CF-NeRFは、モデル化されたシーンに関連する不確実性を定量化するために使用される全ての可能な放射場モデリング上の分布を学習する。
論文 参考訳(メタデータ) (2022-03-18T23:26:20Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Learning Partially Known Stochastic Dynamics with Empirical PAC Bayes [12.44342023476206]
本稿では,これらのモデルの予測精度を3段階で向上させる手法を提案する。
実験では、このレシピは、部分的およびノイズの多い事前知識を改良されたモデル適合に効果的に翻訳することを示した。
論文 参考訳(メタデータ) (2020-06-17T14:47:06Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。