論文の概要: Synchronize Feature Extracting and Matching: A Single Branch Framework
for 3D Object Tracking
- arxiv url: http://arxiv.org/abs/2308.12549v1
- Date: Thu, 24 Aug 2023 04:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 15:26:54.146672
- Title: Synchronize Feature Extracting and Matching: A Single Branch Framework
for 3D Object Tracking
- Title(参考訳): 特徴抽出とマッチングの同期:3次元オブジェクト追跡のための単一分岐フレームワーク
- Authors: Teli Ma, Mengmeng Wang, Jimin Xiao, Huifeng Wu, Yong Liu
- Abstract要約: Siameseネットワークは、3D LiDARオブジェクトトラッキングのためのデファクトベンチマークフレームワークである。
特徴抽出とマッチングを同期する新しい単一ブランチフレームワークSyncTrackを提案する。
2つのベンチマークデータセットの実験は、SyncTrackがリアルタイムトラッキングにおける最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 34.58431389376807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Siamese network has been a de facto benchmark framework for 3D LiDAR object
tracking with a shared-parametric encoder extracting features from template and
search region, respectively. This paradigm relies heavily on an additional
matching network to model the cross-correlation/similarity of the template and
search region. In this paper, we forsake the conventional Siamese paradigm and
propose a novel single-branch framework, SyncTrack, synchronizing the feature
extracting and matching to avoid forwarding encoder twice for template and
search region as well as introducing extra parameters of matching network. The
synchronization mechanism is based on the dynamic affinity of the Transformer,
and an in-depth analysis of the relevance is provided theoretically. Moreover,
based on the synchronization, we introduce a novel Attentive Points-Sampling
strategy into the Transformer layers (APST), replacing the random/Farthest
Points Sampling (FPS) method with sampling under the supervision of attentive
relations between the template and search region. It implies connecting
point-wise sampling with the feature learning, beneficial to aggregating more
distinctive and geometric features for tracking with sparse points. Extensive
experiments on two benchmark datasets (KITTI and NuScenes) show that SyncTrack
achieves state-of-the-art performance in real-time tracking.
- Abstract(参考訳): Siameseネットワークは3次元LiDARオブジェクトトラッキングのためのデファクトベンチマークフレームワークであり、テンプレートと検索領域からそれぞれ特徴を抽出する共有パラメトリックエンコーダを備えている。
このパラダイムはテンプレートと検索領域の相互相関/類似性をモデル化するために追加のマッチングネットワークに大きく依存する。
本稿では,従来のシアームのパラダイムを禁止し,特徴抽出とマッチングを同期する新しい単一分岐フレームワークsynctrackを提案し,テンプレートと検索領域で2回エンコーダの転送を回避し,マッチングネットワークの余分なパラメータを導入する。
同期機構はトランスフォーマーの動的親和性に基づいており、理論的に関連性の詳細な解析を行う。
さらに,この同期に基づき,テンプレートと探索領域の注意関係の監督下で,ランダム/ファーストポイントサンプリング (fps) 法をサンプリングに置き換え,新しい注意ポイントサンプリング戦略をトランスフォーマ層 (apst) に導入する。
ポイントワイズサンプリングと特徴学習を結びつけることで、より独特で幾何学的な特徴をスパースポイントで追跡するのに有益である。
2つのベンチマークデータセット(KITTIとNuScenes)の大規模な実験は、SyncTrackがリアルタイムトラッキングにおける最先端のパフォーマンスを達成することを示している。
関連論文リスト
- S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Multi-Correlation Siamese Transformer Network with Dense Connection for
3D Single Object Tracking [14.47355191520578]
ポイントクラウドベースの3Dオブジェクトトラッキングは、自動運転において重要なタスクである。
スパースLIDARポイントクラウドデータでテンプレートと検索ブランチの相関を効果的に学習することは依然として困難である。
本稿では,複数のステージを持つマルチ相関シームス変圧器ネットワークを提案し,各ステージの最後に特徴相関を行う。
論文 参考訳(メタデータ) (2023-12-18T09:33:49Z) - Unified Single-Stage Transformer Network for Efficient RGB-T Tracking [47.88113335927079]
我々は、上記3つのステージを単一のViT(Vision Transformer)バックボーンに統合するシングルステージのRGB-Tトラッキングネットワーク、すなわちUSTrackを提案する。
この構造により、ネットワークは、モダリティの相互相互作用の下でテンプレートと検索領域の融合特徴を抽出することができる。
3つのRGB-T追跡ベンチマーク実験により,提案手法は高速な推論速度84.2FPSを維持しつつ,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-08-26T05:09:57Z) - S.T.A.R.-Track: Latent Motion Models for End-to-End 3D Object Tracking with Adaptive Spatio-Temporal Appearance Representations [10.46571824050325]
トラッキング・バイ・アテンションのパラダイムに従って,3次元トラッキングのためのオブジェクト中心のトランスフォーマーベースのフレームワークを提案する。
そこで我々はS.T.A.R.-Trackを提案する。これは新しい潜伏運動モデル(LMM)を用いてオブジェクトクエリを調整し、潜伏空間における視方向や照明条件の変化を考慮に入れている。
論文 参考訳(メタデータ) (2023-06-30T12:22:41Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - OST: Efficient One-stream Network for 3D Single Object Tracking in Point Clouds [6.661881950861012]
本稿では,従来のシームズネットワークで発生した相関操作を回避するために,インスタンスレベルのエンコーディングの強みを活かした新しい一ストリームネットワークを提案する。
提案手法は,クラス固有のトラッキングだけでなく,より少ない計算と高い効率でクラスに依存しないトラッキングを実現する。
論文 参考訳(メタデータ) (2022-10-16T12:31:59Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。