論文の概要: Collaborative Tracking Learning for Frame-Rate-Insensitive Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2308.05911v1
- Date: Fri, 11 Aug 2023 02:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:14:21.336982
- Title: Collaborative Tracking Learning for Frame-Rate-Insensitive Multi-Object
Tracking
- Title(参考訳): フレームレート非感受性マルチオブジェクトトラッキングのための協調トラッキング学習
- Authors: Yiheng Liu, Junta Wu, Yi Fu
- Abstract要約: 低フレームレートのマルチオブジェクトトラッキング(MOT)は、エッジデバイスの制約を満たすために、計算、ストレージ、電力オーバーヘッドを削減できる。
本稿では,コラボレーティブ・トラッキング・ラーニング(ColTrack)によるフレームレート非感性MOTを,問合せに基づくエンドツーエンドで探索することを提案する。
- 参考スコア(独自算出の注目度): 2.4972588063029493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) at low frame rates can reduce computational,
storage and power overhead to better meet the constraints of edge devices. Many
existing MOT methods suffer from significant performance degradation in
low-frame-rate videos due to significant location and appearance changes
between adjacent frames. To this end, we propose to explore collaborative
tracking learning (ColTrack) for frame-rate-insensitive MOT in a query-based
end-to-end manner. Multiple historical queries of the same target jointly track
it with richer temporal descriptions. Meanwhile, we insert an information
refinement module between every two temporal blocking decoders to better fuse
temporal clues and refine features. Moreover, a tracking object consistency
loss is proposed to guide the interaction between historical queries. Extensive
experimental results demonstrate that in high-frame-rate videos, ColTrack
obtains higher performance than state-of-the-art methods on large-scale
datasets Dancetrack and BDD100K, and outperforms the existing end-to-end
methods on MOT17. More importantly, ColTrack has a significant advantage over
state-of-the-art methods in low-frame-rate videos, which allows it to obtain
faster processing speeds by reducing frame-rate requirements while maintaining
higher performance. Code will be released at
https://github.com/yolomax/ColTrack
- Abstract(参考訳): 低フレームレートのマルチオブジェクトトラッキング(MOT)は、エッジデバイスの制約を満たすため、計算、ストレージ、電力オーバーヘッドを低減することができる。
既存のMOT法の多くは、隣接フレーム間の位置や外観の変化により、低フレームレートビデオの性能が著しく低下する。
そこで本研究では,コラボレーティブ・トラッキング・ラーニング(ColTrack)によるフレームレート非感受性MOTの問合せに基づくエンドツーエンド手法を提案する。
同じターゲットの複数の履歴クエリが、よりリッチな時間記述でそれを共同で追跡する。
一方,2つの時間的ブロッキングデコーダ間で情報リファインメントモジュールを挿入し,時間的手がかりの融合と特徴の洗練を図る。
さらに,過去のクエリ間のインタラクションを導くために,オブジェクト一貫性の損失を追跡する手法を提案する。
広範な実験結果から,高フレームレートビデオでは,大規模データセットのdancetrackやbdd100kにおいて,coltrackが最先端のメソッドよりも高いパフォーマンスを得られ,既存のmot17のエンドツーエンドメソッドよりも優れていることが示されている。
さらに重要なことに、coltrackは低フレームレートビデオにおける最先端のメソッドよりも大きなアドバンテージがあり、高いパフォーマンスを維持しながらフレームレート要件を削減し、より高速な処理速度を得ることができる。
コードはhttps://github.com/yolomax/ColTrackでリリースされる。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - Towards Frame Rate Agnostic Multi-Object Tracking [76.82407173177138]
本稿では,FraMOT 問題に初めて取り組むために,FAPS を用いたフレームレート非依存MOT フレームワークを提案する。
具体的には,フレームレート情報を推論し,符号化するフレームレートアグノスティックアソシエーションモジュール(FAAM)を提案する。
FAPSは、パターンマッチングと融合を追跡することによって、トレーニングにおけるすべての後処理ステップを反映する。
論文 参考訳(メタデータ) (2022-09-23T04:25:19Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Real-time Online Multi-Object Tracking in Compressed Domain [66.40326768209]
近年,Multi-Object Tracking (MOT) 手法が望まれるトラッキング性能を実現している。
隣接するフレームが極めて関連性が高く冗長であるという事実に着想を得て、フレームをキーフレームと非キーフレームに分割する。
私たちのトラッカーは、同等のトラッカー性能を維持しながら、約6倍高速です。
論文 参考訳(メタデータ) (2022-04-05T09:47:24Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。