論文の概要: AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Point Cloud
Analysis
- arxiv url: http://arxiv.org/abs/2402.17521v1
- Date: Tue, 27 Feb 2024 14:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:04:12.797067
- Title: AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Point Cloud
Analysis
- Title(参考訳): AVS-Net:3Dポイントクラウド分析のための適応型Voxelサイズによるポイントサンプリング
- Authors: Hongcheng Yang, Dingkang Liang, Dingyuan Zhang, Xingyu Jiang, Zhe Liu,
Zhikang Zou and Yingying Zhu
- Abstract要約: 本稿では,精度と効率性を両立する高度サンプリング器を提案する。
本稿では,Voxel Adaptation Module(Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module)を提案する。
提案手法は,ShapeNetPartとScanNetベンチマークにおける最先端の精度を有望な効率で達成する。
- 参考スコア(独自算出の注目度): 16.83608783089707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient downsampling plays a crucial role in point cloud learning,
particularly for large-scale 3D scenes. Existing downsampling methods either
require a huge computational burden or sacrifice fine-grained geometric
information. This paper presents an advanced sampler that achieves both high
accuracy and efficiency. The proposed method utilizes voxel-based sampling as a
foundation, but effectively addresses the challenges regarding voxel size
determination and the preservation of critical geometric cues. Specifically, we
propose a Voxel Adaptation Module that adaptively adjusts voxel sizes with the
reference of point-based downsampling ratio. This ensures the sampling results
exhibit a favorable distribution for comprehending various 3D objects or
scenes. Additionally, we introduce a network compatible with arbitrary voxel
sizes for sampling and feature extraction while maintaining high efficiency.
Our method achieves state-of-the-art accuracy on the ShapeNetPart and ScanNet
benchmarks with promising efficiency. Code will be available at
https://github.com/yhc2021/AVS-Net.
- Abstract(参考訳): 効率的なダウンサンプリングは、特に大規模3Dシーンにおいて、ポイントクラウド学習において重要な役割を果たす。
既存のダウンサンプリング手法では、計算の負担が大きいか、きめ細かい幾何学的情報を犠牲にする。
本稿では,精度と効率性を両立する高度サンプリング器を提案する。
提案手法はvoxelに基づくサンプリングを基礎として用いるが,voxelサイズ決定や重要な幾何学的手がかりの保存に関する課題を効果的に解決する。
具体的には,点ベースダウンサンプリング比を参照してボクセルサイズを適応的に調整するボクセル適応モジュールを提案する。
これにより、サンプリング結果は、様々な3Dオブジェクトやシーンの理解に好適な分布を示す。
さらに,高効率を維持しつつ,サンプリングおよび特徴抽出のための任意のボクセルサイズに対応するネットワークを導入する。
提案手法は,ShapeNetPartとScanNetベンチマークにおける最先端の精度を有望な効率で達成する。
コードはhttps://github.com/yhc2021/AVS-Netで入手できる。
関連論文リスト
- 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。