論文の概要: SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking
- arxiv url: http://arxiv.org/abs/2402.16249v1
- Date: Mon, 26 Feb 2024 02:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:42:01.582713
- Title: SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking
- Title(参考訳): SeqTrack3D:ロバストな3Dポイントクラウド追跡のためのシーケンス情報探索
- Authors: Yu Lin, Zhiheng Li, Yubo Cui, Zheng Fang
- Abstract要約: 本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
- 参考スコア(独自算出の注目度): 26.405519771454102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking (SOT) is an important and challenging task for the
autonomous driving and mobile robotics. Most existing methods perform tracking
between two consecutive frames while ignoring the motion patterns of the target
over a series of frames, which would cause performance degradation in the
scenes with sparse points. To break through this limitation, we introduce
Sequence-to-Sequence tracking paradigm and a tracker named SeqTrack3D to
capture target motion across continuous frames. Unlike previous methods that
primarily adopted three strategies: matching two consecutive point clouds,
predicting relative motion, or utilizing sequential point clouds to address
feature degradation, our SeqTrack3D combines both historical point clouds and
bounding box sequences. This novel method ensures robust tracking by leveraging
location priors from historical boxes, even in scenes with sparse points.
Extensive experiments conducted on large-scale datasets show that SeqTrack3D
achieves new state-of-the-art performances, improving by 6.00% on NuScenes and
14.13% on Waymo dataset. The code will be made public at
https://github.com/aron-lin/seqtrack3d.
- Abstract(参考訳): 3Dシングルオブジェクトトラッキング(SOT)は、自律走行と移動ロボットにとって重要かつ困難なタスクである。
既存の手法の多くは、2つの連続するフレーム間のトラッキングを行い、一連のフレーム上でターゲットの動きパターンを無視している。
この制限を打破するために,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
2つの連続したポイントクラウドのマッチング、相対的な動きの予測、特徴の劣化に対処するシーケンシャルなポイントクラウドの利用の3つの戦略を主に採用した従来の方法とは異なり、seqtrack3dは歴史的なポイントクラウドとバウンディングボックスシーケンスの両方を組み合わせる。
この新手法は, 狭点のシーンであっても, 履歴ボックスからの位置先行情報を活用することにより, 堅牢なトラッキングを実現する。
大規模データセットでの広範な実験により、seqtrack3dは新しい最先端のパフォーマンスを達成し、nuscenesでは6.00%、waymoデータセットでは14.13%改善した。
コードはhttps://github.com/aron-lin/seqtrack3d.comで公開される。
関連論文リスト
- 3D Single-object Tracking in Point Clouds with High Temporal Variation [79.5863632942935]
点雲の高時間変動は3次元単一物体追跡の鍵となる課題である(3D SOT)
既存のアプローチは、点雲の形状変化と、隣接するフレームを横切る物体の運動が滑らかであるという仮定に依存している。
HVTrackと呼ばれる高時間変動の点群における3次元SOTのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-04T14:57:28Z) - EasyTrack: Efficient and Compact One-stream 3D Point Clouds Tracker [35.74677036815288]
そこで本稿では,TextbfEasyTrackと呼ばれる,簡潔でコンパクトな1ストリームトランスフォーマ3D SOTパラダイムを提案する。
3Dポイントクラウド追跡機能付き事前学習モジュールを開発し、3Dポイントクラウド追跡表現の学習にマスク付きオートエンコーディングを利用する。
密集した鳥眼ビュー(BEV)特徴空間における目標位置ネットワークを構築し、目標分類と回帰を行う。
論文 参考訳(メタデータ) (2024-04-09T02:47:52Z) - Motion-to-Matching: A Mixed Paradigm for 3D Single Object Tracking [27.805298263103495]
本稿では,モーションモデリングと特徴マッチングを組み合わせたMTM-Trackerを提案する。
第1段階では、連続した履歴ボックスを先行動作として利用し、ターゲットの粗い位置を特定するエンコーダ・デコーダ構造を提案する。
第2段階では、連続する点雲から動きを認識する特徴を抽出し、それらをマッチングして目標運動を洗練させる特徴相互作用モジュールを導入する。
論文 参考訳(メタデータ) (2023-08-23T02:40:51Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single
Object Tracking in Point Clouds [39.41305358466479]
LiDARポイントクラウドにおける3Dオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
新しい視点から3D SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-03T14:20:10Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - PointTrackNet: An End-to-End Network For 3-D Object Detection and
Tracking From Point Clouds [13.174385375232161]
エンドツーエンドの3次元物体検出・追跡ネットワークであるPointTrackNetを提案する。
検出対象ごとに、前景マスク、3D境界ボックス、ポイントワイド関連変位を生成する。
論文 参考訳(メタデータ) (2020-02-26T15:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。