論文の概要: Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking
- arxiv url: http://arxiv.org/abs/2403.15831v1
- Date: Sat, 23 Mar 2024 13:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 20:52:58.803174
- Title: Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking
- Title(参考訳): ポイントクラウド単一物体追跡のための分散器フィルタのための時空間双方向クロスフレームメモリ
- Authors: Shaoyu Sun, Chunyang Wang, Xuelian Liu, Chunhao Shi, Yueyang Ding, Guan Xi,
- Abstract要約: LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
- 参考スコア(独自算出の注目度): 2.487142846438629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking within LIDAR point clouds is a pivotal task in computer vision, with profound implications for autonomous driving and robotics. However, existing methods, which depend solely on appearance matching via Siamese networks or utilize motion information from successive frames, encounter significant challenges. Issues such as similar objects nearby or occlusions can result in tracker drift. To mitigate these challenges, we design an innovative spatio-temporal bi-directional cross-frame distractor filtering tracker, named STMD-Tracker. Our first step involves the creation of a 4D multi-frame spatio-temporal graph convolution backbone. This design separates KNN graph spatial embedding and incorporates 1D temporal convolution, effectively capturing temporal fluctuations and spatio-temporal information. Subsequently, we devise a novel bi-directional cross-frame memory procedure. This integrates future and synthetic past frame memory to enhance the current memory, thereby improving the accuracy of iteration-based tracking. This iterative memory update mechanism allows our tracker to dynamically compensate for information in the current frame, effectively reducing tracker drift. Lastly, we construct spatially reliable Gaussian masks on the fused features to eliminate distractor points. This is further supplemented by an object-aware sampling strategy, which bolsters the efficiency and precision of object localization, thereby reducing tracking errors caused by distractors. Our extensive experiments on KITTI, NuScenes and Waymo datasets demonstrate that our approach significantly surpasses the current state-of-the-art methods.
- Abstract(参考訳): LIDARポイントクラウド内の3Dオブジェクト追跡は、コンピュータビジョンにおける重要なタスクであり、自律走行とロボット工学に深く影響している。
しかし、シームズネットワーク経由の外観マッチングのみに依存したり、連続するフレームからの動作情報を利用する既存の手法は、重大な課題に直面している。
類似した物体や閉塞などの問題はトラッカーのドリフトを引き起こす。
これらの課題を軽減するため,STMD-Tracker という,革新的な時空間双方向分散フィルタトラッカーを設計した。
最初のステップは、4次元多フレームの時空間グラフ畳み込みバックボーンの作成です。
この設計は、KNNグラフの空間埋め込みを分離し、1次元の時間的畳み込みを取り入れ、時間的変動と時空間情報を効果的にキャプチャする。
その後,新しい双方向クロスフレームメモリ手法を考案した。
これにより、未来記憶と合成過去のメモリを統合し、現在のメモリを強化し、イテレーションベースのトラッキングの精度を向上させる。
この反復的なメモリ更新機構により、トラッカーは現在のフレーム内の情報を動的に補償することができ、トラッカーのドリフトを効果的に低減できる。
最後に,空間的に信頼性の高いガウスマスクを融合した形状上に構築し,乱れ点を除去する。
さらに、オブジェクトローカライゼーションの効率と精度を向上し、イントラクタによるトラッキングエラーを減らすオブジェクト認識サンプリング戦略によって、これを補足する。
KITTI、NuScenes、Waymoのデータセットに関する広範な実験は、我々のアプローチが現在の最先端手法を大きく上回っていることを示している。
関連論文リスト
- Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - TASeg: Temporal Aggregation Network for LiDAR Semantic Segmentation [80.13343299606146]
そこで本稿では, 時系列LiDARアグリゲーション・蒸留(TLAD)アルゴリズムを提案する。
時間画像のフル活用を目的として,カメラFOVを大幅に拡張できるTIAFモジュールを設計した。
また,静的移動スイッチ拡張(SMSA)アルゴリズムを開発し,時間的情報を利用してオブジェクトの動作状態を自由に切り替える。
論文 参考訳(メタデータ) (2024-07-13T03:00:16Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - TrackAgent: 6D Object Tracking via Reinforcement Learning [24.621588217873395]
我々は、オブジェクト追跡を強化されたポイントクラウド(深部のみ)アライメントタスクに単純化することを提案する。
これにより、スクラッチからスクラッチからスパース3Dポイントクラウドをトレーニングすることができます。
また、RLエージェントの不確かさとレンダリングベースのマスク伝搬が効果的な再起動トリガであることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:03:00Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Real-time Multi-Object Tracking Based on Bi-directional Matching [0.0]
本研究では,多目的追跡のための双方向マッチングアルゴリズムを提案する。
ストランド領域はマッチングアルゴリズムで使われ、追跡できないオブジェクトを一時的に保存する。
MOT17チャレンジでは、提案アルゴリズムは63.4%のMOTA、55.3%のIDF1、20.1のFPS追跡速度を達成した。
論文 参考訳(メタデータ) (2023-03-15T08:38:08Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。