論文の概要: Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2305.12724v1
- Date: Mon, 22 May 2023 05:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:18:33.760013
- Title: Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking
- Title(参考訳): エンドツーエンドと非エンドツーエンドのマルチオブジェクトトラッキングのギャップを埋める
- Authors: Feng Yan, Weixin Luo, Yujie Zhong, Yiyang Gan, Lin Ma
- Abstract要約: 既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
本稿では,e2e-MOT をシャドウ概念を用いた新しいラベル割り当てにより,簡便かつ効果的な方法である Co-MOT を提案する。
- 参考スコア(独自算出の注目度): 27.74953961900086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing end-to-end Multi-Object Tracking (e2e-MOT) methods have not
surpassed non-end-to-end tracking-by-detection methods. One potential reason is
its label assignment strategy during training that consistently binds the
tracked objects with tracking queries and then assigns the few newborns to
detection queries. With one-to-one bipartite matching, such an assignment will
yield unbalanced training, i.e., scarce positive samples for detection queries,
especially for an enclosed scene, as the majority of the newborns come on stage
at the beginning of videos. Thus, e2e-MOT will be easier to yield a tracking
terminal without renewal or re-initialization, compared to other
tracking-by-detection methods. To alleviate this problem, we present Co-MOT, a
simple and effective method to facilitate e2e-MOT by a novel coopetition label
assignment with a shadow concept. Specifically, we add tracked objects to the
matching targets for detection queries when performing the label assignment for
training the intermediate decoders. For query initialization, we expand each
query by a set of shadow counterparts with limited disturbance to itself. With
extensive ablations, Co-MOT achieves superior performance without extra costs,
e.g., 69.4% HOTA on DanceTrack and 52.8% TETA on BDD100K. Impressively, Co-MOT
only requires 38\% FLOPs of MOTRv2 to attain a similar performance, resulting
in the 1.4$\times$ faster inference speed.
- Abstract(参考訳): 既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
潜在的な理由の1つは、トレーニング中のラベル割り当て戦略で、追跡されたオブジェクトと追跡クエリを一貫してバインドし、少数の新生児をクエリ検出に割り当てる。
1対1のバイパーティイトマッチングでは、ビデオの開始時に新生児の大多数がステージに上がるため、このような割り当ては不均衡なトレーニング、すなわち、特に囲いのあるシーンで検出クエリの正のサンプルが不足する。
したがって、e2e-MOTは、他のトラッキング・バイ・検出方法と比較して、更新や再初期化なしに追跡端末を得るのが簡単になる。
この問題を軽減するために,影の概念を用いた新しいコペティションラベル割り当てによるe2e-MOTの簡易かつ効果的な方法であるCo-MOTを提案する。
具体的には、中間デコーダをトレーニングするためのラベル割り当てを行う際に、検出クエリのために、マッチングターゲットに追跡オブジェクトを追加する。
クエリ初期化では、各クエリをシャドウ対応のセットで拡張し、それ自身の外乱を制限します。
大幅な改善により、Co-MOTは、DanceTrackの69.4% HOTA、BDD100Kの52.8% TETAなど、余分なコストなしで優れたパフォーマンスを達成している。
印象的なことに、Co-MOTはMOTRv2の38\%のFLOPしか必要とせず、結果として1.4$\times$高速な推論速度が得られる。
関連論文リスト
- Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - Real-time Multi-Object Tracking Based on Bi-directional Matching [0.0]
本研究では,多目的追跡のための双方向マッチングアルゴリズムを提案する。
ストランド領域はマッチングアルゴリズムで使われ、追跡できないオブジェクトを一時的に保存する。
MOT17チャレンジでは、提案アルゴリズムは63.4%のMOTA、55.3%のIDF1、20.1のFPS追跡速度を達成した。
論文 参考訳(メタデータ) (2023-03-15T08:38:08Z) - MOTRv2: Bootstrapping End-to-End Multi-Object Tracking by Pretrained
Object Detectors [14.69168925956635]
MOTRv2は、事前訓練されたオブジェクト検出器でエンドツーエンドのマルチオブジェクト追跡をブートストラップするパイプラインである。
ダンストラックでは73.4% HOTAが第1位であり、グループ・ダンス・チャレンジでは第1位にランクインしている。
BDD100Kデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2022-11-17T18:57:12Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - Transformer-based assignment decision network for multiple object
tracking [0.0]
本稿では,データアソシエーションに取り組むトランスフォーマーベースのアサインメント決定ネットワーク(TADN)について,推論中に明示的な最適化を必要とせずに紹介する。
提案手法は,トラッカーとしての単純な性質にもかかわらず,ほとんどの評価指標において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-08-06T19:47:32Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。