論文の概要: FisherRF: Active View Selection and Uncertainty Quantification for
Radiance Fields using Fisher Information
- arxiv url: http://arxiv.org/abs/2311.17874v1
- Date: Wed, 29 Nov 2023 18:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:23:07.089951
- Title: FisherRF: Active View Selection and Uncertainty Quantification for
Radiance Fields using Fisher Information
- Title(参考訳): FisherRF:釣り情報を用いた放射界のアクティブビュー選択と不確かさ定量化
- Authors: Wen Jiang, Boshu Lei, Kostas Daniilidis
- Abstract要約: 本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の問題に対処する。
NeRFは画像のレンダリングと再構成が大幅に進歩しているが、2D画像の可用性の限界は不確かである。
水産情報を活用することにより,地上の真理データを使わずに,レージアンスフィールド内の観測情報を効率的に定量化する。
- 参考スコア(独自算出の注目度): 32.66184501415286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study addresses the challenging problem of active view selection and
uncertainty quantification within the domain of Radiance Fields. Neural
Radiance Fields (NeRF) have greatly advanced image rendering and
reconstruction, but the limited availability of 2D images poses uncertainties
stemming from occlusions, depth ambiguities, and imaging errors. Efficiently
selecting informative views becomes crucial, and quantifying NeRF model
uncertainty presents intricate challenges. Existing approaches either depend on
model architecture or are based on assumptions regarding density distributions
that are not generally applicable. By leveraging Fisher Information, we
efficiently quantify observed information within Radiance Fields without ground
truth data. This can be used for the next best view selection and pixel-wise
uncertainty quantification. Our method overcomes existing limitations on model
architecture and effectiveness, achieving state-of-the-art results in both view
selection and uncertainty quantification, demonstrating its potential to
advance the field of Radiance Fields. Our method with the 3D Gaussian Splatting
backend could perform view selections at 70 fps.
- Abstract(参考訳): 本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の課題に対処する。
ニューラル・ラジアンス・フィールド(NeRF)は画像のレンダリングと再構成が大幅に進歩しているが、2D画像の可用性の限界は、閉塞、奥行きの曖昧さ、画像誤差に起因する不確実性をもたらす。
情報的視点を効果的に選択することが重要となり、NeRFモデルの不確実性を定量化することは複雑な課題をもたらす。
既存のアプローチはモデルアーキテクチャに依存するか、あるいは一般には適用できない密度分布に関する仮定に基づいている。
水産情報を活用することにより,地上の真理データを使わずに,レージアンスフィールド内の観測情報を効率的に定量化する。
これは次の最良のビュー選択とピクセル単位での不確かさの定量化に使用できる。
提案手法は、モデルアーキテクチャと有効性に関する既存の制限を克服し、ビュー選択と不確実性定量化の両面で最先端の成果を達成し、その可能性を示す。
3D Gaussian Splattingバックエンドを用いて70fpsでビュー選択を行う。
関連論文リスト
- Calibrated Uncertainties for Neural Radiance Fields [66.06029344664061]
我々は、NeRFモデルから不確実性を校正する最初の方法を提案する。
まず、パッチサンプリングに基づいて、各シーンに対して2つのNeRFモデルをトレーニングする。
第二に、一つのNeRFモデルのトレーニングのみを必要とする新しいメタキャリブレータである。
論文 参考訳(メタデータ) (2023-12-04T21:29:31Z) - NeISF: Neural Incident Stokes Field for Geometry and Material Estimation [50.588983686271284]
多視点逆レンダリングは、異なる視点で撮影された一連の画像から形状、材料、照明などのシーンパラメータを推定する問題である。
本稿では,偏光手がかりを用いた曖昧さを低減する多視点逆フレームワークNeISFを提案する。
論文 参考訳(メタデータ) (2023-11-22T06:28:30Z) - Estimating 3D Uncertainty Field: Quantifying Uncertainty for Neural
Radiance Fields [25.300284510832974]
学習された不完全なシーン形状に基づいて3次元不確かさ場を推定する新しい手法を提案する。
各カメラ線に沿って蓄積された透過率を考慮すると、不確実性フィールドは2Dピクセル単位の不確かさを推測する。
我々の実験は、3D未確認領域とそれに関連する2Dレンダリングピクセルの両方において、高い不確実性を明確に説明できる唯一の方法であることを示した。
論文 参考訳(メタデータ) (2023-11-03T09:47:53Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - FG-NeRF: Flow-GAN based Probabilistic Neural Radiance Field for
Independence-Assumption-Free Uncertainty Estimation [28.899779240902703]
本研究では,Flow-GANに基づく独立推定自由確率的ニューラル放射場を提案する。
本手法は, 対向学習の生成能力と正規化フローの強力な表現性を組み合わせることで, シーンの密度-放射分布を明示的にモデル化する。
提案手法は,より低いレンダリング誤差と,合成データセットと実世界のデータセットの信頼性の高い不確実性を予測し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-09-28T12:05:08Z) - Bayes' Rays: Uncertainty Quantification for Neural Radiance Fields [40.0731063035352]
ニューラル・ラジアンス・フィールド(NeRF)は、ビュー合成や深さ推定などの応用において有望であるが、マルチビュー画像からの学習は固有の不確実性に直面している。
トレーニングプロセスを変更することなく、トレーニング済みのNeRFにおける不確実性を評価するためのポストホックフレームワークであるBayesRaysを紹介する。
本研究では,空間摂動とベイズラプラス近似を用いて体積不確実性場を確立する。
論文 参考訳(メタデータ) (2023-09-06T17:44:34Z) - Robustifying the Multi-Scale Representation of Neural Radiance Fields [86.69338893753886]
実世界の画像の両問題を克服するために,頑健なマルチスケールニューラルラジアンス場表現手法を提案する。
提案手法は,NeRFにインスパイアされたアプローチを用いて,マルチスケール画像効果とカメラ位置推定問題に対処する。
例えば、日常的に取得したマルチビュー画像からオブジェクトの正確な神経表現を行うためには、カメラの正確な位置推定が不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-09T11:46:45Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。