論文の概要: Boundary Exploration of Next Best View Policy in 3D Robotic Scanning
- arxiv url: http://arxiv.org/abs/2412.10444v2
- Date: Fri, 04 Jul 2025 18:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 17:51:39.511801
- Title: Boundary Exploration of Next Best View Policy in 3D Robotic Scanning
- Title(参考訳): 3次元ロボットスキャニングにおける次のベストビューポリシーのバウンダリ探索
- Authors: Leihui Li, Lixuepiao Wan, Xuping Zhang,
- Abstract要約: NBV問題(Next Best View)は、3Dロボットスキャンにおける重要な課題である。
そこで本研究では,次の視点でスキャンした点雲の境界を内在的に検討したNBVポリシーを提案する。
本稿では,参照モデルに基づいて候補ビューを反復的に提案するモデルベースアプローチを提案する。
さらに,NBVをスキャンデータから直接予測する境界探索NBVネットワーク(BENBV-Net)を提案する。
- 参考スコア(独自算出の注目度): 6.1938383008964495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Next Best View (NBV) problem is a pivotal challenge in 3D robotic scanning, with the potential to significantly improve the efficiency of object capture and reconstruction. Existing methods for determining the NBV often overlook view overlap, assume a fixed virtual origin for the camera, and rely on voxel-based representations of 3D data. To address these limitations and enhance the practicality of scanning unknown objects, we propose an NBV policy in which the next view explores the boundary of the scanned point cloud, with overlap intrinsically considered. The scanning or working distance of the camera is user-defined and remains flexible throughout the process. To this end, we first introduce a model-based approach in which candidate views are iteratively proposed based on a reference model. Scores are computed using a carefully designed strategy that accounts for both view overlap and convergence. In addition, we propose a learning-based method, the Boundary Exploration NBV Network (BENBV-Net), which predicts the NBV directly from the scanned data without requiring a reference model. BENBV-Net estimates scores for candidate boundaries, selecting the one with the highest score as the target for the next best view. It offers a significant improvement in NBV generation speed while maintaining the performance level of the model-based approach. We evaluate both methods on the ShapeNet, ModelNet, and 3D Repository datasets. Experimental results demonstrate that our approach outperforms existing methods in terms of scanning efficiency, final coverage, and overlap stability, all of which are critical for practical 3D scanning applications. The related code is available at github.com/leihui6/BENBV.
- Abstract(参考訳): NBV問題(Next Best View)は、3Dロボットスキャンにおける重要な課題であり、物体の捕獲と再構成の効率を大幅に向上させる可能性がある。
NBVを決定する既存の方法は、しばしばオーバービューの重なりを見落とし、カメラに固定された仮想オリジンを仮定し、3Dデータのボクセルベースの表現に依存する。
これらの制約に対処し、未知の物体をスキャンする実用性を高めるために、本論文では、スキャンした点雲の境界を、本質的に重なり合うように、次の視点で探索するNBVポリシーを提案する。
カメラのスキャンや作業距離はユーザー定義されており、そのプロセスを通してフレキシブルである。
そこで我々はまず,参照モデルに基づいて候補ビューを反復的に提案するモデルベースアプローチを提案する。
スコアは、ビューの重複と収束の両方を考慮に入れた、慎重に設計された戦略を用いて計算される。
さらに, 参照モデルを必要とせず, スキャンしたデータからNBVを直接予測する境界探索NBVネットワーク(BENBV-Net)を提案する。
BENBV-Netは、候補境界のスコアを推定し、次のベストビューのターゲットとして最高スコアのスコアを選択する。
モデルベースアプローチのパフォーマンスレベルを維持しながら、NBV生成速度を大幅に改善する。
本稿では,ShapeNet,ModelNet,3D Repositoryの両手法について検討する。
実験結果から,本手法は3次元走査アプリケーションにおいて重要であり,スキャン効率,最終カバレッジ,重なり合う安定性の点で既存手法よりも優れていることが示された。
関連コードはgithub.com/leihui6/BENBVで入手できる。
関連論文リスト
- ViPOcc: Leveraging Visual Priors from Vision Foundation Models for Single-View 3D Occupancy Prediction [11.312780421161204]
本稿では,視覚基盤モデルからの視覚的先行情報を活用して,詳細な3D占有率予測を行うViPOccを提案する。
また,効率的な実例認識光サンプリングのための意味誘導型非重複ガウス混合サンプリング器を提案する。
本実験は,3次元占有予測と深度推定の両方において,ViPOccの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-15T15:04:27Z) - GraphRelate3D: Context-Dependent 3D Object Detection with Inter-Object Relationship Graphs [13.071451453118783]
グラフ生成器とグラフニューラルネットワーク(GNN)から構成されるオブジェクト関係モジュールを導入し、特定のパターンから空間情報を学習し、3次元オブジェクト検出を改善する。
提案手法は,KITTI検証セットにおけるPV-RCNNのベースラインを,軽度,中等度,難易度でそれぞれ0.82%,0.74%,0.58%改善する。
論文 参考訳(メタデータ) (2024-05-10T19:18:02Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - 3D Cascade RCNN: High Quality Object Detection in Point Clouds [122.42455210196262]
本稿では3次元カスケードRCNNを提案する。これはカスケードパラダイムにおいて、酸化点雲に基づいて複数の検出器を割り当てる。
提案する3次元カスケードRCNNは,最先端の3次元物体検出技術と比較した場合の優位性を検証した。
論文 参考訳(メタデータ) (2022-11-15T15:58:36Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Neighbor-Vote: Improving Monocular 3D Object Detection through Neighbor
Distance Voting [12.611269919468999]
本稿では、隣接する予測を組み込んで、高度に変形した擬似LiDAR点雲からの物体検出を改善する方法を提案する。
鳥の視線検出の成績は,特に難易度検出において,最先端の視線検出よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2021-07-06T09:18:33Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。