論文の概要: FisherRF: Active View Selection and Uncertainty Quantification for Radiance Fields using Fisher Information
- arxiv url: http://arxiv.org/abs/2311.17874v2
- Date: Sun, 15 Dec 2024 05:38:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:43.606846
- Title: FisherRF: Active View Selection and Uncertainty Quantification for Radiance Fields using Fisher Information
- Title(参考訳): FisherRF:釣り情報を用いた放射界のアクティブビュー選択と不確かさ定量化
- Authors: Wen Jiang, Boshu Lei, Kostas Daniilidis,
- Abstract要約: 画像を取得するコストは、最も有益な視点を効率的に選択する必要がある。
魚介類情報を活用することにより, 放射場パラメータの観測情報を直接定量化し, 候補視点を選択する。
本手法は、ビュー選択、アクティブマッピング、不確実性定量化など、複数のタスクにおける最先端結果を実現する。
- 参考スコア(独自算出の注目度): 29.06117204247588
- License:
- Abstract: This study addresses the challenging problem of active view selection and uncertainty quantification within the domain of Radiance Fields. Neural Radiance Fields (NeRF) have greatly advanced image rendering and reconstruction, but the cost of acquiring images poses the need to select the most informative viewpoints efficiently. Existing approaches depend on modifying the model architecture or hypothetical perturbation field to indirectly approximate the model uncertainty. However, selecting views from indirect approximation does not guarantee optimal information gain for the model. By leveraging Fisher Information, we directly quantify observed information on the parameters of Radiance Fields and select candidate views by maximizing the Expected Information Gain(EIG). Our method achieves state-of-the-art results on multiple tasks, including view selection, active mapping, and uncertainty quantification, demonstrating its potential to advance the field of Radiance Fields.
- Abstract(参考訳): 本研究では、放射場領域におけるアクティブビュー選択と不確実性定量化の課題に対処する。
ニューラル・ラジアンス・フィールド(NeRF)は画像のレンダリングと再構成が大幅に進歩しているが、画像を取得するコストは、最も情報性の高い視点を効率的に選択する必要がある。
既存のアプローチは、モデルの不確実性を間接的に近似するために、モデルアーキテクチャや仮説摂動場を変更することに依存する。
しかし、間接近似からビューを選択することは、モデルに最適な情報ゲインを保証するものではない。
魚介類情報を活用することで、放射場パラメータの観測情報を直接定量化し、予測情報ゲイン(EIG)を最大化して候補視点を選択する。
提案手法は,ビュー選択,アクティブマッピング,不確実性定量化など,複数のタスクにおける最先端の成果を達成し,レージアンスフィールドの前進の可能性を示す。
関連論文リスト
- Manifold Sampling for Differentiable Uncertainty in Radiance Fields [82.17927517146929]
本稿では,ガウス放射場を明示的かつきめ細かい不確実性推定で学習するための多元的アプローチを提案する。
次回のベクター・ビュー・プランニング・タスクにおける最先端のパフォーマンスを実演する。
論文 参考訳(メタデータ) (2024-09-19T11:22:20Z) - ExtraNeRF: Visibility-Aware View Extrapolation of Neural Radiance Fields with Diffusion Models [60.48305533224092]
ExtraNeRFはニューラル・ラジアンス・フィールド(NeRF)によって処理される視野を外挿する新しい方法である
主な考え方は、NeRFをシーン固有の細部までモデル化し、拡散モデルを利用して観測データを超えて外挿することです。
論文 参考訳(メタデータ) (2024-06-10T09:44:06Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - Simple-RF: Regularizing Sparse Input Radiance Fields with Simpler Solutions [5.699788926464751]
ニューラル・ラジアンス・フィールド(NeRF)は、シーンのフォトリアリスティックなフリービューレンダリングにおいて印象的なパフォーマンスを示す。
TensoRFやZipNeRFといったNeRFの最近の改良は、最適化とレンダリングの高速化のために明示的なモデルを採用している。
放射場によって推定される深度を監督することは、より少ない視点で効果的に学習することに役立つことを示す。
論文 参考訳(メタデータ) (2024-04-29T18:00:25Z) - ProvNeRF: Modeling per Point Provenance in NeRFs as a Stochastic Field [52.09661042881063]
テキストフィールドとしてNeRFのbfprovenance(可視な位置)をモデル化する手法を提案する。
我々は、NeRF最適化におけるポイントごとの精度のモデリングにより、新しいビュー合成と不確実性推定の改善につながる情報により、モデルが強化されることを示す。
論文 参考訳(メタデータ) (2024-01-16T06:19:18Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - Image Completion via Inference in Deep Generative Models [16.99337751292915]
画像生成モデルにおける償却推論の観点から画像完成を検討する。
CIFAR-10およびFFHQ-256データセットの先行技術と比較して、優れたサンプル品質と多様性を示します。
論文 参考訳(メタデータ) (2021-02-24T02:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。