論文の概要: Exploring Point-BEV Fusion for 3D Point Cloud Object Tracking with
Transformer
- arxiv url: http://arxiv.org/abs/2208.05216v1
- Date: Wed, 10 Aug 2022 08:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:53:15.005755
- Title: Exploring Point-BEV Fusion for 3D Point Cloud Object Tracking with
Transformer
- Title(参考訳): 変圧器を用いた3次元クラウド物体追跡のための点BEV融合の探索
- Authors: Zhipeng Luo, Changqing Zhou, Liang Pan, Gongjie Zhang, Tianrui Liu,
Yueru Luo, Haiyu Zhao, Ziwei Liu, Shijian Lu
- Abstract要約: 3Dオブジェクトトラッキングは、オブジェクトテンプレートが与えられた連続したフレームにおけるオブジェクトの位置と向きを予測することを目的としている。
トランスの成功に触発されたPTTR(Point Tracking TRansformer)を提案する。
- 参考スコア(独自算出の注目度): 62.68401838976208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prevalence of LiDAR sensors in autonomous driving, 3D object
tracking has received increasing attention. In a point cloud sequence, 3D
object tracking aims to predict the location and orientation of an object in
consecutive frames given an object template. Motivated by the success of
transformers, we propose Point Tracking TRansformer (PTTR), which efficiently
predicts high-quality 3D tracking results in a coarse-to-fine manner with the
help of transformer operations. PTTR consists of three novel designs. 1)
Instead of random sampling, we design Relation-Aware Sampling to preserve
relevant points to the given template during subsampling. 2) We propose a Point
Relation Transformer for effective feature aggregation and feature matching
between the template and search region. 3) Based on the coarse tracking
results, we employ a novel Prediction Refinement Module to obtain the final
refined prediction through local feature pooling. In addition, motivated by the
favorable properties of the Bird's-Eye View (BEV) of point clouds in capturing
object motion, we further design a more advanced framework named PTTR++, which
incorporates both the point-wise view and BEV representation to exploit their
complementary effect in generating high-quality tracking results. PTTR++
substantially boosts the tracking performance on top of PTTR with low
computational overhead. Extensive experiments over multiple datasets show that
our proposed approaches achieve superior 3D tracking accuracy and efficiency.
- Abstract(参考訳): 自動運転におけるLiDARセンサーの普及に伴い、3Dオブジェクトトラッキングは注目されている。
ポイントクラウドシーケンスでは、3dオブジェクト追跡は、オブジェクトテンプレートが与えられた連続フレームにおけるオブジェクトの位置と向きを予測することを目的としている。
変圧器の成功に動機づけられた点追尾変圧器(pttr)は,変圧器操作の助けを借りて,高品質な3d追尾結果を高精度に予測する。
PTTRは3つの新しいデザインで構成されている。
1) ランダムサンプリングの代わりに, サブサンプリング中のテンプレートに関連点を保持するリレーアウェアサンプリングを設計する。
2) テンプレートと検索領域間の効果的な特徴集約と特徴マッチングのための点関係変換器を提案する。
3) 粗い追跡結果に基づいて, 局所的な特徴プーリングによる最終改良予測を得るために, 新たな予測リファインメントモジュールを用いる。
さらに、物体の動きを捉えた点雲のBird's-Eye View(BEV)の好ましい特性を動機として、ポイントワイドビューとBEV表現の両方を組み込んだPTTR++というより高度なフレームワークを設計し、高品質なトラッキング結果を生成する際の相補的な効果を利用する。
PTTR++は計算オーバーヘッドの少ないPTTR上でのトラッキング性能を大幅に向上させる。
複数のデータセットにまたがる広範な実験により,提案手法が優れた3dトラッキング精度と効率を実現することを示した。
関連論文リスト
- EVT: Efficient View Transformation for Multi-Modal 3D Object Detection [2.9848894641223302]
効率的なビュー変換(EVT)による新しい3次元物体検出法を提案する。
EVTは、アダプティブサンプリングとアダプティブプロジェクション(ASAP)を使用して、3Dサンプリングポイントとアダプティブカーネルを生成する。
トランスデコーダ内で得られたマルチモーダルBEV機能を効果的に活用するように設計されている。
論文 参考訳(メタデータ) (2024-11-16T06:11:10Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - OCBEV: Object-Centric BEV Transformer for Multi-View 3D Object Detection [29.530177591608297]
マルチビュー3Dオブジェクト検出は、高い有効性と低コストのため、自動運転において人気を博している。
現在の最先端検出器のほとんどは、クエリベースのバードアイビュー(BEV)パラダイムに従っている。
本稿では,移動対象の時間的・空間的手がかりをより効率的に彫ることができるOCBEVを提案する。
論文 参考訳(メタデータ) (2023-06-02T17:59:48Z) - Real-time 3D Single Object Tracking with Transformer [5.000768859809606]
Point-Track-Transformer (PTT) は、ポイントクラウドベースの3Dオブジェクト追跡タスクのためのモジュールである。
PTTモジュールは、注意重みの計算により微調整された注意特徴を生成する。
PTT-Netでは、投票段階と提案段階にPTTを組み込む。
論文 参考訳(メタデータ) (2022-09-02T07:36:20Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - PTTR: Relational 3D Point Cloud Object Tracking with Transformer [37.06516957454285]
ポイントクラウドシーケンスでは、3Dオブジェクトトラッキングは、テンプレートポイントクラウドが与えられた現在の検索ポイントクラウド内のオブジェクトの位置と向きを予測することを目的としている。
本稿では,高品位な3次元追跡結果を粗い方法で効率的に予測し,変圧器操作の助けを借りて,ポイントトラッキングTRansformer (PTTR)を提案する。
論文 参考訳(メタデータ) (2021-12-06T08:28:05Z) - Improving 3D Object Detection with Channel-wise Transformer [58.668922561622466]
我々は手作りの最小限の設計で2段階の3Dオブジェクト検出フレームワーク(CT3D)を提案する。
CT3Dは、提案対応の埋め込みとチャンネルワイドコンテキストアグリゲーションを同時に行う。
これはKITTIテスト3D検出ベンチマークで中等車カテゴリーで81.77%のAPを達成した。
論文 参考訳(メタデータ) (2021-08-23T02:03:40Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。