論文の概要: Peering into the Unknown: Active View Selection with Neural Uncertainty Maps for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2506.14856v1
- Date: Tue, 17 Jun 2025 08:15:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.433796
- Title: Peering into the Unknown: Active View Selection with Neural Uncertainty Maps for 3D Reconstruction
- Title(参考訳): 未知視へのピアリング:3次元再構成のためのニューラル不確かさマップを用いたアクティブビュー選択
- Authors: Zhengquan Zhang, Feng Xu, Mengmi Zhang,
- Abstract要約: 3次元再構成のためのアクティブビューセレクション(AVS)は、コンピュータビジョンの基本的な課題である。
我々は、UPNetと呼ばれる軽量フィードフォワードディープニューラルネットワークによって予測される神経不確実性マップによって導かれる新しいAVSアプローチを導入する。
我々は3Dレンダリングモデルを訓練し、他の競争力のあるAVS手法と比較して、新しいビューの品質を評価する。
- 参考スコア(独自算出の注目度): 10.51717081118357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Some perspectives naturally provide more information than others. How can an AI system determine which viewpoint offers the most valuable insight for accurate and efficient 3D object reconstruction? Active view selection (AVS) for 3D reconstruction remains a fundamental challenge in computer vision. The aim is to identify the minimal set of views that yields the most accurate 3D reconstruction. Instead of learning radiance fields, like NeRF or 3D Gaussian Splatting, from a current observation and computing uncertainty for each candidate viewpoint, we introduce a novel AVS approach guided by neural uncertainty maps predicted by a lightweight feedforward deep neural network, named UPNet. UPNet takes a single input image of a 3D object and outputs a predicted uncertainty map, representing uncertainty values across all possible candidate viewpoints. By leveraging heuristics derived from observing many natural objects and their associated uncertainty patterns, we train UPNet to learn a direct mapping from viewpoint appearance to uncertainty in the underlying volumetric representations. Next, our approach aggregates all previously predicted neural uncertainty maps to suppress redundant candidate viewpoints and effectively select the most informative one. Using these selected viewpoints, we train 3D neural rendering models and evaluate the quality of novel view synthesis against other competitive AVS methods. Remarkably, despite using half of the viewpoints than the upper bound, our method achieves comparable reconstruction accuracy. In addition, it significantly reduces computational overhead during AVS, achieving up to a 400 times speedup along with over 50\% reductions in CPU, RAM, and GPU usage compared to baseline methods. Notably, our approach generalizes effectively to AVS tasks involving novel object categories, without requiring any additional training.
- Abstract(参考訳): いくつかの視点は自然に他の視点よりも多くの情報を提供する。
AIシステムは、正確で効率的な3Dオブジェクト再構成において、どの視点が最も価値ある洞察を提供するかを決定するにはどうすればよいか?
3次元再構成のためのアクティブビューセレクション(AVS)は、コンピュータビジョンの基本的な課題である。
目的は、最も正確な3D再構成をもたらす最小限の視点を特定することである。
NeRFや3D Gaussian Splattingのような放射場を現在の観測から学習する代わりに、UPNetと呼ばれる軽量フィードフォワードディープニューラルネットワークによって予測される神経不確実性マップによって導かれる新しいAVSアプローチを導入する。
UPNetは3Dオブジェクトの1つの入力画像を取得し、予測された不確実性マップを出力し、可能な全ての視点で不確実性値を表す。
多くの自然物とその関連する不確実性パターンを観察したヒューリスティックスを活用することで、UPNetをトレーニングし、外見から下層の容積表現における不確実性への直接マッピングを学習する。
次に、従来予測されていた全ての神経不確実性マップを集約し、冗長な候補の視点を抑えるとともに、最も情報性の高い視点を効果的に選択する。
これらの選択された視点を用いて、3Dニューラルレンダリングモデルを訓練し、他の競争力のあるAVS手法と比較して、新しいビュー合成の品質を評価する。
注目すべきは,上界の半分以上の視点を用いているにも関わらず,本手法は同等の再現精度を実現することである。
さらに、AVSの計算オーバーヘッドを大幅に削減し、ベースラインメソッドに比べてCPU、RAM、GPU使用率が50%以上削減されるとともに、400倍のスピードアップを実現している。
特に本手法は,新たなオブジェクトカテゴリを含むAVSタスクに対して,追加のトレーニングを必要とせずに効果的に一般化する。
関連論文リスト
- Boundary Exploration of Next Best View Policy in 3D Robotic Scanning [6.961253535504979]
我々は,次の視点でスキャンした点雲の境界を探索するNBVポリシーを提案する。
参照モデルに基づいて次のセンサ位置を反復的に探索するモデルに基づく手法を提案する。
深層学習ネットワークであるBoundary Exploration NBV Network (BENBV-Net) を設計・提案し, スキャンしたデータから直接NBVを予測する。
論文 参考訳(メタデータ) (2024-12-11T16:11:13Z) - Frequency-based View Selection in Gaussian Splatting Reconstruction [9.603843571051744]
入力画像の少ない3次元ガウススプラッティング再構成を行うためのアクティブビュー選択の問題について検討する。
周波数領域の潜在的なビューをランク付けすることで、新しい視点の潜在的な情報ゲインを効果的に推定することができる。
提案手法は,画像による3次元再構成を効果的に行う可能性を示し,ビュー選択の最先端性を実現する。
論文 参考訳(メタデータ) (2024-09-24T21:44:26Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - S-VolSDF: Sparse Multi-View Stereo Regularization of Neural Implicit
Surfaces [75.30792581941789]
暗黙の面のニューラルレンダリングは、3次元視覚アプリケーションでうまく機能する。
スパース入力画像のみが利用可能となると、形状と輝度のあいまいさの問題により出力品質が著しく低下する。
MVSソリューションを用いてニューラルレンダリング最適化の正規化を提案する。
論文 参考訳(メタデータ) (2023-03-30T21:10:58Z) - Multi-View Photometric Stereo Revisited [100.97116470055273]
多視点測光ステレオ(MVPS)は、画像から被写体を詳細に正確に3D取得する方法として好まれる。
MVPSは異方性や光沢などの他の対象物質と同様に,等方性に対しても有効である。
提案手法は、複数のベンチマークデータセットで広範囲にテストした場合に、最先端の結果を示す。
論文 参考訳(メタデータ) (2022-10-14T09:46:15Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - 2D GANs Meet Unsupervised Single-view 3D Reconstruction [21.93671761497348]
事前訓練されたGANに基づく制御可能な画像生成は、幅広いコンピュータビジョンタスクに役立てることができる。
本稿では,GAN生成した多視点画像から2次元の監視を活用できる新しい画像条件のニューラル暗黙界を提案する。
提案手法の有効性は,ジェネリックオブジェクトのより優れた1次元3次元再構成結果によって示される。
論文 参考訳(メタデータ) (2022-07-20T20:24:07Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance
Disparity Estimation [51.17232267143098]
ステレオ画像から3次元物体を検出するための新しいシステムDisp R-CNNを提案する。
我々は、LiDAR点雲を必要とせずに、統計的形状モデルを用いて、密度の異なる擬似地下構造を生成する。
KITTIデータセットの実験によると、LiDARの基盤構造がトレーニング時に利用できない場合でも、Disp R-CNNは競争性能を達成し、平均精度で従来の最先端手法を20%上回っている。
論文 参考訳(メタデータ) (2020-04-07T17:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。