論文の概要: STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking
- arxiv url: http://arxiv.org/abs/2306.17440v1
- Date: Fri, 30 Jun 2023 07:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:23:44.889606
- Title: STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking
- Title(参考訳): STTracker:3次元物体追跡のための時空間トラッカー
- Authors: Yubo Cui, Zhiheng Li, Zheng Fang
- Abstract要約: ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
- 参考スコア(独自算出の注目度): 11.901758708579642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D single object tracking with point clouds is a critical task in 3D computer
vision. Previous methods usually input the last two frames and use the
predicted box to get the template point cloud in previous frame and the search
area point cloud in the current frame respectively, then use similarity-based
or motion-based methods to predict the current box. Although these methods
achieved good tracking performance, they ignore the historical information of
the target, which is important for tracking. In this paper, compared to
inputting two frames of point clouds, we input multi-frame of point clouds to
encode the spatio-temporal information of the target and learn the motion
information of the target implicitly, which could build the correlations among
different frames to track the target in the current frame efficiently.
Meanwhile, rather than directly using the point feature for feature fusion, we
first crop the point cloud features into many patches and then use sparse
attention mechanism to encode the patch-level similarity and finally fuse the
multi-frame features. Extensive experiments show that our method achieves
competitive results on challenging large-scale benchmarks (62.6% in KITTI and
49.66% in NuScenes).
- Abstract(参考訳): ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
従来の方法は、通常、最後の2つのフレームを入力し、予測されたボックスを使用して、前のフレームのテンプレートポイントクラウドと、現在のフレームの検索エリアポイントクラウドを取得する。
これらの手法は良好な追跡性能を達成したが、追跡に重要なターゲットの履歴情報を無視している。
本稿では,2フレームの点雲を入力した場合と比較して,複数フレームの点雲を入力して対象の時空間情報を符号化し,対象の運動情報を暗黙的に学習する。
一方、フィーチャーフュージョンでポイント機能を直接使用するのではなく、最初にポイントクラウド機能を多くのパッチに分割し、スパースアテンション機構を使用してパッチレベルの類似性をエンコードし、最終的にマルチフレーム機能を融合します。
大規模なベンチマーク(KITTIが62.6%、NuScenesが49.66%)に対して,本手法が競合する結果が得られることを示した。
関連論文リスト
- SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking [26.405519771454102]
本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
論文 参考訳(メタデータ) (2024-02-26T02:14:54Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - Motion-to-Matching: A Mixed Paradigm for 3D Single Object Tracking [27.805298263103495]
本稿では,モーションモデリングと特徴マッチングを組み合わせたMTM-Trackerを提案する。
第1段階では、連続した履歴ボックスを先行動作として利用し、ターゲットの粗い位置を特定するエンコーダ・デコーダ構造を提案する。
第2段階では、連続する点雲から動きを認識する特徴を抽出し、それらをマッチングして目標運動を洗練させる特徴相互作用モジュールを導入する。
論文 参考訳(メタデータ) (2023-08-23T02:40:51Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - MBPTrack: Improving 3D Point Cloud Tracking with Memory Networks and Box
Priors [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など多くのアプリケーションにおいて、何十年にもわたって重要な問題となっている。
本稿では,過去の情報を活用するメモリ機構を採用したMBPTrackを提案する。
論文 参考訳(メタデータ) (2023-03-09T07:07:39Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - TransPillars: Coarse-to-Fine Aggregation for Multi-Frame 3D Object
Detection [47.941714033657675]
ポイントクラウドを用いた3Dオブジェクト検出は、自律走行とロボット工学に広く応用されているため、注目を集めている。
連続点雲フレームの時間的特徴を生かしたトランスピラース(TransPillars)を設計する。
提案するTransPillarsは,既存のマルチフレーム検出手法と比較して最先端性能を実現する。
論文 参考訳(メタデータ) (2022-08-04T15:41:43Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。