論文の概要: Boundary Exploration of Next Best View Policy in 3D Robotic Scanning
- arxiv url: http://arxiv.org/abs/2412.10444v1
- Date: Wed, 11 Dec 2024 16:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:55:30.803003
- Title: Boundary Exploration of Next Best View Policy in 3D Robotic Scanning
- Title(参考訳): 3次元ロボットスキャニングにおける次のベストビューポリシーのバウンダリ探索
- Authors: Leihui Li, Xuping Zhang,
- Abstract要約: 我々は,次の視点でスキャンした点雲の境界を探索するNBVポリシーを提案する。
参照モデルに基づいて次のセンサ位置を反復的に探索するモデルに基づく手法を提案する。
深層学習ネットワークであるBoundary Exploration NBV Network (BENBV-Net) を設計・提案し, スキャンしたデータから直接NBVを予測する。
- 参考スコア(独自算出の注目度): 6.961253535504979
- License:
- Abstract: The Next Best View (NBV) problem is a pivotal challenge in 3D robotic scanning, with the potential to greatly improve the efficiency of object capture and reconstruction. Current methods for determining the NBV often overlook view overlaps, assume a virtual origin point for the camera's focus, and rely on voxel representations of 3D data. To address these issues and improve the practicality of scanning unknown objects, we propose an NBV policy in which the next view explores the boundary of the scanned point cloud, and the overlap is intrinsically considered. The scanning distance or camera working distance is adjustable and flexible. To this end, a model-based approach is proposed where the next sensor positions are searched iteratively based on a reference model. A score is calculated by considering the overlaps between newly scanned and existing data, as well as the final convergence. Additionally, following the boundary exploration idea, a deep learning network, Boundary Exploration NBV network (BENBV-Net), is designed and proposed, which can be used to predict the NBV directly from the scanned data without requiring the reference model. It predicts the scores for given boundaries, and the boundary with the highest score is selected as the target point of the next best view. BENBV-Net improves the speed of NBV generation while maintaining the performance of the model-based approach. Our proposed methods are evaluated and compared with existing approaches on the ShapeNet, ModelNet, and 3D Repository datasets. Experimental results demonstrate that our approach outperforms others in terms of scanning efficiency and overlap, both of which are crucial for practical 3D scanning applications. The related code is released at \url{github.com/leihui6/BENBV}.
- Abstract(参考訳): NBV問題(Next Best View)は、3Dロボットスキャンにおける重要な課題であり、物体の捕獲と再構成の効率を大幅に改善する可能性がある。
NBVを決定する現在の方法は、しばしば見過ごされ、カメラの焦点の仮想起点を仮定し、3Dデータのボクセル表現に依存する。
これらの問題に対処し、未知の物体をスキャンする実用性を改善するために、次の視点でスキャンした点雲の境界を探索するNBVポリシーを提案し、その重複を本質的に考慮する。
走査距離またはカメラ作業距離は、調整可能かつ柔軟である。
この目的のために、参照モデルに基づいて次のセンサ位置を反復的に探索するモデルに基づくアプローチを提案する。
新たにスキャンされたデータと既存のデータの重複と、最終的な収束を考慮し、スコアを算出する。
さらに, 境界探索のアイデアに従って, 参照モデルを必要とせず, スキャンしたデータからNBVを直接予測できる深層学習ネットワークであるBENBV-Net(Bundary Exploration NBV Network)を設計・提案した。
与えられたバウンダリのスコアを予測し、最高スコアのバウンダリを次のベストビューのターゲットポイントとして選択する。
BENBV-Netは、モデルベースアプローチの性能を維持しながら、NBV生成速度を改善する。
提案手法はShapeNet, ModelNet, 3D Repositoryデータセットの既存手法と比較して評価・比較する。
実験の結果,本手法は走査効率と重なり合いにおいて他者よりも優れており,どちらも実用的な3次元走査アプリケーションに不可欠であることがわかった。
関連コードは \url{github.com/leihui6/BENBV} でリリースされる。
関連論文リスト
- GraphRelate3D: Context-Dependent 3D Object Detection with Inter-Object Relationship Graphs [13.071451453118783]
グラフ生成器とグラフニューラルネットワーク(GNN)から構成されるオブジェクト関係モジュールを導入し、特定のパターンから空間情報を学習し、3次元オブジェクト検出を改善する。
提案手法は,KITTI検証セットにおけるPV-RCNNのベースラインを,軽度,中等度,難易度でそれぞれ0.82%,0.74%,0.58%改善する。
論文 参考訳(メタデータ) (2024-05-10T19:18:02Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - 3D Cascade RCNN: High Quality Object Detection in Point Clouds [122.42455210196262]
本稿では3次元カスケードRCNNを提案する。これはカスケードパラダイムにおいて、酸化点雲に基づいて複数の検出器を割り当てる。
提案する3次元カスケードRCNNは,最先端の3次元物体検出技術と比較した場合の優位性を検証した。
論文 参考訳(メタデータ) (2022-11-15T15:58:36Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Neighbor-Vote: Improving Monocular 3D Object Detection through Neighbor
Distance Voting [12.611269919468999]
本稿では、隣接する予測を組み込んで、高度に変形した擬似LiDAR点雲からの物体検出を改善する方法を提案する。
鳥の視線検出の成績は,特に難易度検出において,最先端の視線検出よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2021-07-06T09:18:33Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。