論文の概要: FisherRF: Active View Selection and Uncertainty Quantification for
Radiance Fields using Fisher Information
- arxiv url: http://arxiv.org/abs/2311.17874v1
- Date: Wed, 29 Nov 2023 18:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:23:07.089951
- Title: FisherRF: Active View Selection and Uncertainty Quantification for
Radiance Fields using Fisher Information
- Title(参考訳): FisherRF:釣り情報を用いた放射界のアクティブビュー選択と不確かさ定量化
- Authors: Wen Jiang, Boshu Lei, Kostas Daniilidis
- Abstract要約: 本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の問題に対処する。
NeRFは画像のレンダリングと再構成が大幅に進歩しているが、2D画像の可用性の限界は不確かである。
水産情報を活用することにより,地上の真理データを使わずに,レージアンスフィールド内の観測情報を効率的に定量化する。
- 参考スコア(独自算出の注目度): 32.66184501415286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study addresses the challenging problem of active view selection and
uncertainty quantification within the domain of Radiance Fields. Neural
Radiance Fields (NeRF) have greatly advanced image rendering and
reconstruction, but the limited availability of 2D images poses uncertainties
stemming from occlusions, depth ambiguities, and imaging errors. Efficiently
selecting informative views becomes crucial, and quantifying NeRF model
uncertainty presents intricate challenges. Existing approaches either depend on
model architecture or are based on assumptions regarding density distributions
that are not generally applicable. By leveraging Fisher Information, we
efficiently quantify observed information within Radiance Fields without ground
truth data. This can be used for the next best view selection and pixel-wise
uncertainty quantification. Our method overcomes existing limitations on model
architecture and effectiveness, achieving state-of-the-art results in both view
selection and uncertainty quantification, demonstrating its potential to
advance the field of Radiance Fields. Our method with the 3D Gaussian Splatting
backend could perform view selections at 70 fps.
- Abstract(参考訳): 本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の課題に対処する。
ニューラル・ラジアンス・フィールド(NeRF)は画像のレンダリングと再構成が大幅に進歩しているが、2D画像の可用性の限界は、閉塞、奥行きの曖昧さ、画像誤差に起因する不確実性をもたらす。
情報的視点を効果的に選択することが重要となり、NeRFモデルの不確実性を定量化することは複雑な課題をもたらす。
既存のアプローチはモデルアーキテクチャに依存するか、あるいは一般には適用できない密度分布に関する仮定に基づいている。
水産情報を活用することにより,地上の真理データを使わずに,レージアンスフィールド内の観測情報を効率的に定量化する。
これは次の最良のビュー選択とピクセル単位での不確かさの定量化に使用できる。
提案手法は、モデルアーキテクチャと有効性に関する既存の制限を克服し、ビュー選択と不確実性定量化の両面で最先端の成果を達成し、その可能性を示す。
3D Gaussian Splattingバックエンドを用いて70fpsでビュー選択を行う。
関連論文リスト
- Manifold Sampling for Differentiable Uncertainty in Radiance Fields [82.17927517146929]
本稿では,ガウス放射場を明示的かつきめ細かい不確実性推定で学習するための多元的アプローチを提案する。
次回のベクター・ビュー・プランニング・タスクにおける最先端のパフォーマンスを実演する。
論文 参考訳(メタデータ) (2024-09-19T11:22:20Z) - Sparse-DeRF: Deblurred Neural Radiance Fields from Sparse View [17.214047499850487]
本稿では,より現実的なシナリオに対するスパースビューから,分解型ニューラルラジアンスフィールド(DeRF)を構築することに焦点を当てる。
Sparse-DeRFは複雑なジョイント最適化を正則化し、緩和されたオーバーフィッティングアーティファクトとラディアンスフィールドの品質を向上した。
2ビュー,4ビュー,6ビューのぼかし画像からDeRFをトレーニングすることにより,Sparse-DeRFの有効性を示す。
論文 参考訳(メタデータ) (2024-07-09T07:36:54Z) - ExtraNeRF: Visibility-Aware View Extrapolation of Neural Radiance Fields with Diffusion Models [60.48305533224092]
ExtraNeRFはニューラル・ラジアンス・フィールド(NeRF)によって処理される視野を外挿する新しい方法である
主な考え方は、NeRFをシーン固有の細部までモデル化し、拡散モデルを利用して観測データを超えて外挿することです。
論文 参考訳(メタデータ) (2024-06-10T09:44:06Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - NeISF: Neural Incident Stokes Field for Geometry and Material Estimation [50.588983686271284]
多視点逆レンダリングは、異なる視点で撮影された一連の画像から形状、材料、照明などのシーンパラメータを推定する問題である。
本稿では,偏光手がかりを用いた曖昧さを低減する多視点逆フレームワークNeISFを提案する。
論文 参考訳(メタデータ) (2023-11-22T06:28:30Z) - Estimating 3D Uncertainty Field: Quantifying Uncertainty for Neural
Radiance Fields [25.300284510832974]
学習された不完全なシーン形状に基づいて3次元不確かさ場を推定する新しい手法を提案する。
各カメラ線に沿って蓄積された透過率を考慮すると、不確実性フィールドは2Dピクセル単位の不確かさを推測する。
我々の実験は、3D未確認領域とそれに関連する2Dレンダリングピクセルの両方において、高い不確実性を明確に説明できる唯一の方法であることを示した。
論文 参考訳(メタデータ) (2023-11-03T09:47:53Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Density-aware NeRF Ensembles: Quantifying Predictive Uncertainty in
Neural Radiance Fields [7.380217868660371]
ニューラルレイディアンス場(NeRF)におけるモデル不確かさを効果的に定量化することを示す。
次世代のビュー選択やモデル改良にNeRFの不確かさを活用できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T02:28:33Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。