論文の概要: 3D Siamese Voxel-to-BEV Tracker for Sparse Point Clouds
- arxiv url: http://arxiv.org/abs/2111.04426v1
- Date: Mon, 8 Nov 2021 12:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 16:03:09.948609
- Title: 3D Siamese Voxel-to-BEV Tracker for Sparse Point Clouds
- Title(参考訳): スパース点雲用3次元Voxel-to-BEVトラッカー
- Authors: Le Hui, Lingpeng Wang, Mingmei Cheng, Jin Xie, Jian Yang
- Abstract要約: ポイントクラウドにおける3Dオブジェクトのトラッキングは、動的環境におけるLiDARポイントの分散のため、依然として難しい問題である。
疎3次元点群における追尾性能を著しく向上できるシアメス・ボクセル・ツー・BEVトラッカーを提案する。
- 参考スコア(独自算出の注目度): 19.97270407211052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object tracking in point clouds is still a challenging problem due to the
sparsity of LiDAR points in dynamic environments. In this work, we propose a
Siamese voxel-to-BEV tracker, which can significantly improve the tracking
performance in sparse 3D point clouds. Specifically, it consists of a Siamese
shape-aware feature learning network and a voxel-to-BEV target localization
network. The Siamese shape-aware feature learning network can capture 3D shape
information of the object to learn the discriminative features of the object so
that the potential target from the background in sparse point clouds can be
identified. To this end, we first perform template feature embedding to embed
the template's feature into the potential target and then generate a dense 3D
shape to characterize the shape information of the potential target. For
localizing the tracked target, the voxel-to-BEV target localization network
regresses the target's 2D center and the $z$-axis center from the dense bird's
eye view (BEV) feature map in an anchor-free manner. Concretely, we compress
the voxelized point cloud along $z$-axis through max pooling to obtain a dense
BEV feature map, where the regression of the 2D center and the $z$-axis center
can be performed more effectively. Extensive evaluation on the KITTI and
nuScenes datasets shows that our method significantly outperforms the current
state-of-the-art methods by a large margin.
- Abstract(参考訳): ポイントクラウドにおける3Dオブジェクトのトラッキングは、動的環境におけるLiDARポイントの分散のため、依然として難しい問題である。
本研究では,sparse 3d ポイントクラウドにおけるトラッキング性能を著しく向上できる siamese voxel-to-bev トラッカを提案する。
具体的には、シームズ形状認識型特徴学習ネットワークと、voxel-to-BEVターゲットローカライゼーションネットワークで構成される。
siamese shape-aware feature learning networkは、オブジェクトの3d形状情報をキャプチャして、オブジェクトの識別特徴を学習し、スパースポイント雲の背景から潜在的なターゲットを識別することができる。
この目的を達成するために,まずテンプレートの特徴をターゲットに埋め込むテンプレート機能組込みを行い,その後に密度の高い3d形状を生成し,対象の形状情報を特徴付ける。
追跡対象のローカライズのために、voxel-to-BEVターゲットローカライゼーションネットワークは、密集した鳥眼ビュー(BEV)特徴マップからターゲットの2D中心と$z$軸中心をアンカーフリーで回帰する。
具体的には, 2D 中心と $z$-軸中心の回帰をより効果的に行うことのできる高密度 BEV 特徴写像を得るために, 最大プーリングにより, ボキセル化点雲を$z$-軸に沿って圧縮する。
KITTI および nuScenes データセットの大規模評価により,本手法は最先端の手法よりも大きなマージンで優れていた。
関連論文リスト
- FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - BSH-Det3D: Improving 3D Object Detection with BEV Shape Heatmap [10.060577111347152]
我々は,BSH-Det3Dという新しいLiDARベースの3Dオブジェクト検出モデルを提案する。
鳥の視線から完全な形状を推定することにより、空間的特徴を高める効果的な方法を適用する。
KITTIベンチマークの実験は、精度と速度の観点から最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2023-03-03T15:13:11Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - CG-SSD: Corner Guided Single Stage 3D Object Detection from LiDAR Point
Cloud [4.110053032708927]
現実世界では、LiDARは限られた物体の表面点の雲しか取得できないが、物体の中心点は存在しない。
コーナー誘導型アンカーフリー単段3次元物体検出モデル(CG-SSD)を提案する。
CG-SSDは、単一フレームポイントクラウドデータを用いた教師付き3Dオブジェクト検出のためのONCEベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。