論文の概要: SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking
- arxiv url: http://arxiv.org/abs/2402.16249v1
- Date: Mon, 26 Feb 2024 02:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:42:01.582713
- Title: SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking
- Title(参考訳): SeqTrack3D:ロバストな3Dポイントクラウド追跡のためのシーケンス情報探索
- Authors: Yu Lin, Zhiheng Li, Yubo Cui, Zheng Fang
- Abstract要約: 本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
- 参考スコア(独自算出の注目度): 26.405519771454102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking (SOT) is an important and challenging task for the
autonomous driving and mobile robotics. Most existing methods perform tracking
between two consecutive frames while ignoring the motion patterns of the target
over a series of frames, which would cause performance degradation in the
scenes with sparse points. To break through this limitation, we introduce
Sequence-to-Sequence tracking paradigm and a tracker named SeqTrack3D to
capture target motion across continuous frames. Unlike previous methods that
primarily adopted three strategies: matching two consecutive point clouds,
predicting relative motion, or utilizing sequential point clouds to address
feature degradation, our SeqTrack3D combines both historical point clouds and
bounding box sequences. This novel method ensures robust tracking by leveraging
location priors from historical boxes, even in scenes with sparse points.
Extensive experiments conducted on large-scale datasets show that SeqTrack3D
achieves new state-of-the-art performances, improving by 6.00% on NuScenes and
14.13% on Waymo dataset. The code will be made public at
https://github.com/aron-lin/seqtrack3d.
- Abstract(参考訳): 3Dシングルオブジェクトトラッキング(SOT)は、自律走行と移動ロボットにとって重要かつ困難なタスクである。
既存の手法の多くは、2つの連続するフレーム間のトラッキングを行い、一連のフレーム上でターゲットの動きパターンを無視している。
この制限を打破するために,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
2つの連続したポイントクラウドのマッチング、相対的な動きの予測、特徴の劣化に対処するシーケンシャルなポイントクラウドの利用の3つの戦略を主に採用した従来の方法とは異なり、seqtrack3dは歴史的なポイントクラウドとバウンディングボックスシーケンスの両方を組み合わせる。
この新手法は, 狭点のシーンであっても, 履歴ボックスからの位置先行情報を活用することにより, 堅牢なトラッキングを実現する。
大規模データセットでの広範な実験により、seqtrack3dは新しい最先端のパフォーマンスを達成し、nuscenesでは6.00%、waymoデータセットでは14.13%改善した。
コードはhttps://github.com/aron-lin/seqtrack3d.comで公開される。
関連論文リスト
- BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in
Bird's-Eye View [59.283604507093116]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
我々は,Bird's-Eye View(BEV)におけるトラッキングを行う,シンプルだが効果的なベースラインであるBEVTrackを提案する。
3つの大規模データセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Motion-to-Matching: A Mixed Paradigm for 3D Single Object Tracking [27.805298263103495]
本稿では,モーションモデリングと特徴マッチングを組み合わせたMTM-Trackerを提案する。
第1段階では、連続した履歴ボックスを先行動作として利用し、ターゲットの粗い位置を特定するエンコーダ・デコーダ構造を提案する。
第2段階では、連続する点雲から動きを認識する特徴を抽出し、それらをマッチングして目標運動を洗練させる特徴相互作用モジュールを導入する。
論文 参考訳(メタデータ) (2023-08-23T02:40:51Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single
Object Tracking in Point Clouds [39.41305358466479]
LiDARポイントクラウドにおける3Dオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
新しい視点から3D SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-03T14:20:10Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - PointTrackNet: An End-to-End Network For 3-D Object Detection and
Tracking From Point Clouds [13.174385375232161]
エンドツーエンドの3次元物体検出・追跡ネットワークであるPointTrackNetを提案する。
検出対象ごとに、前景マスク、3D境界ボックス、ポイントワイド関連変位を生成する。
論文 参考訳(メタデータ) (2020-02-26T15:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。