論文の概要: Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking
- arxiv url: http://arxiv.org/abs/2210.00519v1
- Date: Sun, 2 Oct 2022 13:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:34:08.348844
- Title: Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking
- Title(参考訳): 3次元物体追跡のためのスパースポイントクラウドでのさらなる情報公開
- Authors: Yubo Cui, Jiayao Shan, Zuoxu Gu, Zhiheng Li, Zheng Fang
- Abstract要約: 3Dオブジェクトトラッキングは、3Dコンピュータビジョンにおける重要なタスクである。
点雲の空間性は、類似性を計算し、対象を見つけるのを難しくする。
本稿では3次元オブジェクト追跡のためのスパース・トゥ・デンス・トランスフォーマー・ベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.693724357115762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D single object tracking is a key task in 3D computer vision. However, the
sparsity of point clouds makes it difficult to compute the similarity and
locate the object, posing big challenges to the 3D tracker. Previous works
tried to solve the problem and improved the tracking performance in some common
scenarios, but they usually failed in some extreme sparse scenarios, such as
for tracking objects at long distances or partially occluded. To address the
above problems, in this letter, we propose a sparse-to-dense and
transformer-based framework for 3D single object tracking. First, we transform
the 3D sparse points into 3D pillars and then compress them into 2D BEV
features to have a dense representation. Then, we propose an attention-based
encoder to achieve global similarity computation between template and search
branches, which could alleviate the influence of sparsity. Meanwhile, the
encoder applies the attention on multi-scale features to compensate for the
lack of information caused by the sparsity of point cloud and the single scale
of features. Finally, we use set-prediction to track the object through a
two-stage decoder which also utilizes attention. Extensive experiments show
that our method achieves very promising results on the KITTI and NuScenes
datasets.
- Abstract(参考訳): 3dシングルオブジェクトトラッキングは、3dコンピュータビジョンの重要なタスクである。
しかし、点雲の広がりは類似性を計算し、オブジェクトを見つけるのを難しくし、3Dトラッカーに大きな課題を生じさせる。
以前の作業では、いくつかの一般的なシナリオでは、この問題の解決と追跡性能の改善が試みられたが、通常は、遠距離で物体を追跡する場合や、部分的に隠された場合など、極端にスパースなシナリオで失敗した。
上記の問題に対処するため,本稿では,sparse-to-denseとtransformerに基づく3次元物体追跡のためのフレームワークを提案する。
まず,3次元のスパース点を3次元の柱に変換し,それを2次元のBEV特徴に圧縮して密度の高い表現を行う。
そこで我々は,テンプレートと検索ブランチ間のグローバルな類似性計算を実現するために,注意に基づくエンコーダを提案する。
一方、エンコーダは、ポイントクラウドのスパース性と単一の機能のスケールによって引き起こされる情報の欠如を補うために、マルチスケール機能に注意を向ける。
最後に、set-predictionを用いて、2段階のデコーダを通してオブジェクトを追跡する。
大規模な実験により,本手法はKITTIとNuScenesのデータセット上で非常に有望な結果が得られることが示された。
関連論文リスト
- PillarTrack: Redesigning Pillar-based Transformer Network for Single Object Tracking on Point Clouds [5.524413892353708]
LiDARベースの3Dオブジェクトトラッキング(3D SOT)は、ロボット工学と自動運転において重要な問題である。
柱型3Dオブジェクト追跡フレームワークであるPillarTrackを提案する。
PillarTrackは、KITTIとnuScenesデータセットで最先端のパフォーマンスを実現し、リアルタイムトラッキング速度を実現する。
論文 参考訳(メタデータ) (2024-04-11T06:06:56Z) - EasyTrack: Efficient and Compact One-stream 3D Point Clouds Tracker [35.74677036815288]
そこで本稿では,TextbfEasyTrackと呼ばれる,簡潔でコンパクトな1ストリームトランスフォーマ3D SOTパラダイムを提案する。
3Dポイントクラウド追跡機能付き事前学習モジュールを開発し、3Dポイントクラウド追跡表現の学習にマスク付きオートエンコーディングを利用する。
密集した鳥眼ビュー(BEV)特徴空間における目標位置ネットワークを構築し、目標分類と回帰を行う。
論文 参考訳(メタデータ) (2024-04-09T02:47:52Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Scatter Points in Space: 3D Detection from Multi-view Monocular Images [8.71944437852952]
単眼画像からの3次元物体検出は,コンピュータビジョンの課題であり,長年の課題である。
近年の手法では, 空間に密集した正規3次元格子をサンプリングすることにより, マルチビュー特性を集約する傾向にある。
そこで本研究では,データ空間に擬似曲面点を散布し,データの分散性を維持するための学習可能なキーポイントサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-08-31T09:38:05Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - F-Siamese Tracker: A Frustum-based Double Siamese Network for 3D Single
Object Tracking [12.644452175343059]
3Dオブジェクト追跡の主な課題は、適切な3D候補を生成するための検索スペースを減らす方法である。
3Dプロポーザルに頼る代わりに、2D領域プロポーザルを生成し、それを3Dビューイングフラストラムに出力する。
我々は3次元フラストラム上でオンラインの精度検証を行い、洗練された点雲探索空間を生成する。
論文 参考訳(メタデータ) (2020-10-22T08:01:17Z) - Center-based 3D Object Detection and Tracking [8.72305226979945]
3次元オブジェクトは通常、ポイントクラウド内の3Dボックスとして表現される。
この表現は、よく研究されたイメージベースの2Dバウンディングボックス検出を模倣するが、さらなる課題が伴う。
本稿では,3Dオブジェクトをポイントとして表現し,検出し,追跡する手法を提案する。
われわれのフレームワークであるCenterPointは、まずキーポイント検出器を用いて物体の中心を検知し、3次元サイズ、3次元方向、速度など他の属性に回帰する。
その結果、検出と追跡のアルゴリズムは単純で効率的で効果的である。
論文 参考訳(メタデータ) (2020-06-19T17:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。