論文の概要: TR-MOT: Multi-Object Tracking by Reference
- arxiv url: http://arxiv.org/abs/2203.16621v1
- Date: Wed, 30 Mar 2022 19:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:07:48.661725
- Title: TR-MOT: Multi-Object Tracking by Reference
- Title(参考訳): TR-MOT:参照による多対象追跡
- Authors: Mingfei Chen, Yue Liao, Si Liu, Fei Wang, Jenq-Neng Hwang
- Abstract要約: 本稿では、変形可能なトランス構造に基づくより信頼性の高いアソシエーションを提供するための新しい参照探索(RS)モジュールを提案する。
提案手法は,MOT17およびMOT20データセット上での競合結果を実現する。
- 参考スコア(独自算出の注目度): 42.45614650498083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object Tracking (MOT) generally can be split into two sub-tasks, i.e.,
detection and association. Many previous methods follow the tracking by
detection paradigm, which first obtain detections at each frame and then
associate them between adjacent frames. Though with an impressive performance
by utilizing a strong detector, it will degrade their detection and association
performance under scenes with many occlusions and large motion if not using
temporal information. In this paper, we propose a novel Reference Search (RS)
module to provide a more reliable association based on the deformable
transformer structure, which is natural to learn the feature alignment for each
object among frames. RS takes previous detected results as references to
aggregate the corresponding features from the combined features of the adjacent
frames and makes a one-to-one track state prediction for each reference in
parallel. Therefore, RS can attain a reliable association coping with
unexpected motions by leveraging visual temporal features while maintaining the
strong detection performance by decoupling from the detector. Our RS module can
also be compatible with the structure of the other tracking by detection
frameworks. Furthermore, we propose a joint training strategy and an effective
matching pipeline for our online MOT framework with the RS module. Our method
achieves competitive results on MOT17 and MOT20 datasets.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)は一般的に2つのサブタスク、すなわち検出と関連付けに分けられる。
従来の多くの手法は、まず各フレームで検出を取得し、次に隣接するフレーム間で関連付ける、検出パラダイムによる追跡に従う。
強力な検出器を利用することで印象的な性能を発揮するが、時間的情報を使用しなければ、多くの閉塞や大きな動きを伴うシーンで検出と関連づける効果は低下する。
本稿では,変形可能なトランスフォーマー構造に基づいて,フレーム間の各オブジェクトの特徴アライメントを学ぶのが自然な,より信頼性の高い関連を提供するための,新しい参照探索(rs)モジュールを提案する。
rsは、検出された結果を参照として、隣接するフレームの複合特徴から対応する特徴を集約し、各参照に対する1対1のトラック状態予測を並列に行う。
これにより、検出器からの分離による強力な検出性能を維持しつつ、視覚的な時間的特徴を活用し、予期せぬ動きに対処する信頼性の高い関連を実現することができる。
私たちのRSモジュールは、検出フレームワークによる他のトラッキング構造とも互換性があります。
さらに,オンラインMOTフレームワークとRSモジュールとの協調学習戦略と効果的なマッチングパイプラインを提案する。
提案手法は,MOT17およびMOT20データセット上での競合結果を実現する。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - ADA-Track++: End-to-End Multi-Camera 3D Multi-Object Tracking with Alternating Detection and Association [15.161640917854363]
多視点カメラによる3D MOTのための新しいエンドツーエンドフレームワークであるADA-Track++を紹介する。
エッジ拡張型クロスアテンションに基づく学習可能なデータアソシエーションモジュールを提案する。
我々は、この関連モジュールをDTRベースの3D検出器のデコーダ層に統合する。
論文 参考訳(メタデータ) (2024-05-14T19:02:33Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object Tracking [9.20064374262956]
提案手法は,2次元検出器と3次元検出器のみを用いて,ロバストなトラッキングを実現する。
多くの最先端のTBDベースのマルチモーダルトラッキング手法よりも正確であることが証明されている。
論文 参考訳(メタデータ) (2023-04-18T02:45:18Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。