論文の概要: WarpRF: Multi-View Consistency for Training-Free Uncertainty Quantification and Applications in Radiance Fields
- arxiv url: http://arxiv.org/abs/2506.22433v1
- Date: Fri, 27 Jun 2025 17:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.321121
- Title: WarpRF: Multi-View Consistency for Training-Free Uncertainty Quantification and Applications in Radiance Fields
- Title(参考訳): WarpRF: トレーニング不要不確実性定量化のためのマルチビュー一貫性と放射場への応用
- Authors: Sadra Safadoust, Fabio Tosi, Fatma Güney, Matteo Poggi,
- Abstract要約: WarpRFは、放射場の不確かさを定量化するフレームワークである。
トレーニングを一切必要とせず、任意の放射場の実装に無償で適用することができる。
- 参考スコア(独自算出の注目度): 27.364205809607302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce WarpRF, a training-free general-purpose framework for quantifying the uncertainty of radiance fields. Built upon the assumption that photometric and geometric consistency should hold among images rendered by an accurate model, WarpRF quantifies its underlying uncertainty from an unseen point of view by leveraging backward warping across viewpoints, projecting reliable renderings to the unseen viewpoint and measuring the consistency with images rendered there. WarpRF is simple and inexpensive, does not require any training, and can be applied to any radiance field implementation for free. WarpRF excels at both uncertainty quantification and downstream tasks, e.g., active view selection and active mapping, outperforming any existing method tailored to specific frameworks.
- Abstract(参考訳): 我々は、放射場の不確かさを定量化するためのトレーニング不要な汎用フレームワークであるWarpRFを紹介する。
WarpRFは、正確なモデルで描画された画像間で光度と幾何学的整合性を保たなければならないという仮定に基づいて、その根底にある不確実性を、視点をまたいだ後方のワープを利用して定量化し、不明瞭な視点に信頼性のあるレンダリングを投影し、そこで描画された画像との整合性を測定する。
WarpRFは単純で安価で、いかなる訓練も必要とせず、どんな放射場の実装にも無料で適用できる。
WarpRFは不確実性定量化と下流タスク、例えばアクティブビュー選択とアクティブマッピングの両方で優れており、特定のフレームワークに適した既存のメソッドよりも優れています。
関連論文リスト
- OPONeRF: One-Point-One NeRF for Robust Neural Rendering [70.56874833759241]
そこで我々は,ロバストなシーンレンダリングのためのOne-Point-One NeRF (OPONeRF) フレームワークを提案する。
物体の動き、光の変化、データ汚染といった小さなが予測不可能な摂動は、現実の3Dシーンに広く存在している。
実験の結果,OPONeRFは各種評価指標において最先端のNeRFよりも優れていた。
論文 参考訳(メタデータ) (2024-09-30T07:49:30Z) - Aleth-NeRF: Illumination Adaptive NeRF with Concealing Field Assumption [65.96818069005145]
照明効果を考慮した「コンシーリング場」の概念を導入する。
暗黒のシナリオでは、物体の放出は標準的な照明レベルを維持するが、レンダリング中に空気を横切ると減衰する。
評価のために、難解な照明条件下で得られた総合的な多視点データセットを提案する。
論文 参考訳(メタデータ) (2023-12-14T16:24:09Z) - Instant Uncertainty Calibration of NeRFs Using a Meta-calibrator [60.47106421809998]
我々は,1つの前方パスを持つNeRFに対して不確実な校正を行うメタ校正器の概念を導入する。
メタキャリブレータは、見えないシーンを一般化し、NeRFの良好な校正と最先端の不確実性を実現できることを示す。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - Pose-Free Neural Radiance Fields via Implicit Pose Regularization [117.648238941948]
IR-NeRFは、暗黙的なポーズ規則化を導入し、ポーズ推定器を非ポーズの実像で精査する革新的なポーズフリー神経放射場である。
特定のシーンの2D画像の収集により、IR-NeRFはシーンの特徴を記憶するシーンコードブックを構築し、シーン固有のポーズ分布を前もって暗黙的にキャプチャする。
論文 参考訳(メタデータ) (2023-08-29T06:14:06Z) - GeCoNeRF: Few-shot Neural Radiance Fields via Geometric Consistency [31.22435282922934]
我々は、幾何認識整合性正規化を伴う数ショット設定でニューラルラジアンス場(NeRF)を正則化する新しいフレームワークを提案する。
本研究では,最新の数発のNeRFモデルと比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-26T05:14:12Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。