論文の概要: AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Point Cloud
Analysis
- arxiv url: http://arxiv.org/abs/2402.17521v1
- Date: Tue, 27 Feb 2024 14:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:04:12.797067
- Title: AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Point Cloud
Analysis
- Title(参考訳): AVS-Net:3Dポイントクラウド分析のための適応型Voxelサイズによるポイントサンプリング
- Authors: Hongcheng Yang, Dingkang Liang, Dingyuan Zhang, Xingyu Jiang, Zhe Liu,
Zhikang Zou and Yingying Zhu
- Abstract要約: 本稿では,精度と効率性を両立する高度サンプリング器を提案する。
本稿では,Voxel Adaptation Module(Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module)を提案する。
提案手法は,ShapeNetPartとScanNetベンチマークにおける最先端の精度を有望な効率で達成する。
- 参考スコア(独自算出の注目度): 16.83608783089707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient downsampling plays a crucial role in point cloud learning,
particularly for large-scale 3D scenes. Existing downsampling methods either
require a huge computational burden or sacrifice fine-grained geometric
information. This paper presents an advanced sampler that achieves both high
accuracy and efficiency. The proposed method utilizes voxel-based sampling as a
foundation, but effectively addresses the challenges regarding voxel size
determination and the preservation of critical geometric cues. Specifically, we
propose a Voxel Adaptation Module that adaptively adjusts voxel sizes with the
reference of point-based downsampling ratio. This ensures the sampling results
exhibit a favorable distribution for comprehending various 3D objects or
scenes. Additionally, we introduce a network compatible with arbitrary voxel
sizes for sampling and feature extraction while maintaining high efficiency.
Our method achieves state-of-the-art accuracy on the ShapeNetPart and ScanNet
benchmarks with promising efficiency. Code will be available at
https://github.com/yhc2021/AVS-Net.
- Abstract(参考訳): 効率的なダウンサンプリングは、特に大規模3Dシーンにおいて、ポイントクラウド学習において重要な役割を果たす。
既存のダウンサンプリング手法では、計算の負担が大きいか、きめ細かい幾何学的情報を犠牲にする。
本稿では,精度と効率性を両立する高度サンプリング器を提案する。
提案手法はvoxelに基づくサンプリングを基礎として用いるが,voxelサイズ決定や重要な幾何学的手がかりの保存に関する課題を効果的に解決する。
具体的には,点ベースダウンサンプリング比を参照してボクセルサイズを適応的に調整するボクセル適応モジュールを提案する。
これにより、サンプリング結果は、様々な3Dオブジェクトやシーンの理解に好適な分布を示す。
さらに,高効率を維持しつつ,サンプリングおよび特徴抽出のための任意のボクセルサイズに対応するネットワークを導入する。
提案手法は,ShapeNetPartとScanNetベンチマークにおける最先端の精度を有望な効率で達成する。
コードはhttps://github.com/yhc2021/AVS-Netで入手できる。
関連論文リスト
- Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - iPUNet:Iterative Cross Field Guided Point Cloud Upsampling [20.925921503694894]
3Dスキャン装置によって取得される点雲は、しばしば疎く、ノイズが多く、一様ではないため、幾何学的特徴が失われる。
任意の比率で高密度および均一な点を生成する学習ベースポイントアップサンプリング手法iPUNetを提案する。
iPUNetは、ノイズや不均一に分散された入力を処理し、最先端のクラウドサンプリング手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-10-13T13:24:37Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。