論文の概要: Collaborative Tracking Learning for Frame-Rate-Insensitive Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2308.05911v2
- Date: Tue, 12 Sep 2023 14:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 16:39:20.302840
- Title: Collaborative Tracking Learning for Frame-Rate-Insensitive Multi-Object
Tracking
- Title(参考訳): フレームレート非感受性マルチオブジェクトトラッキングのための協調トラッキング学習
- Authors: Yiheng Liu, Junta Wu, Yi Fu
- Abstract要約: 低フレームレートのマルチオブジェクトトラッキング(MOT)は、エッジデバイスの制約を満たすために、計算、ストレージ、電力オーバーヘッドを削減できる。
本稿では,コラボレーティブ・トラッキング・ラーニング(ColTrack)によるフレームレート非感性MOTを,問合せに基づくエンドツーエンドで探索することを提案する。
- 参考スコア(独自算出の注目度): 3.781471919731034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) at low frame rates can reduce computational,
storage and power overhead to better meet the constraints of edge devices. Many
existing MOT methods suffer from significant performance degradation in
low-frame-rate videos due to significant location and appearance changes
between adjacent frames. To this end, we propose to explore collaborative
tracking learning (ColTrack) for frame-rate-insensitive MOT in a query-based
end-to-end manner. Multiple historical queries of the same target jointly track
it with richer temporal descriptions. Meanwhile, we insert an information
refinement module between every two temporal blocking decoders to better fuse
temporal clues and refine features. Moreover, a tracking object consistency
loss is proposed to guide the interaction between historical queries. Extensive
experimental results demonstrate that in high-frame-rate videos, ColTrack
obtains higher performance than state-of-the-art methods on large-scale
datasets Dancetrack and BDD100K, and outperforms the existing end-to-end
methods on MOT17. More importantly, ColTrack has a significant advantage over
state-of-the-art methods in low-frame-rate videos, which allows it to obtain
faster processing speeds by reducing frame-rate requirements while maintaining
higher performance. Code will be released at
https://github.com/yolomax/ColTrack
- Abstract(参考訳): 低フレームレートのマルチオブジェクトトラッキング(MOT)は、エッジデバイスの制約を満たすため、計算、ストレージ、電力オーバーヘッドを低減することができる。
既存のMOT法の多くは、隣接フレーム間の位置や外観の変化により、低フレームレートビデオの性能が著しく低下する。
そこで本研究では,コラボレーティブ・トラッキング・ラーニング(ColTrack)によるフレームレート非感受性MOTの問合せに基づくエンドツーエンド手法を提案する。
同じターゲットの複数の履歴クエリが、よりリッチな時間記述でそれを共同で追跡する。
一方,2つの時間的ブロッキングデコーダ間で情報リファインメントモジュールを挿入し,時間的手がかりの融合と特徴の洗練を図る。
さらに,過去のクエリ間のインタラクションを導くために,オブジェクト一貫性の損失を追跡する手法を提案する。
広範な実験結果から,高フレームレートビデオでは,大規模データセットのdancetrackやbdd100kにおいて,coltrackが最先端のメソッドよりも高いパフォーマンスを得られ,既存のmot17のエンドツーエンドメソッドよりも優れていることが示されている。
さらに重要なことに、coltrackは低フレームレートビデオにおける最先端のメソッドよりも大きなアドバンテージがあり、高いパフォーマンスを維持しながらフレームレート要件を削減し、より高速な処理速度を得ることができる。
コードはhttps://github.com/yolomax/ColTrackでリリースされる。
関連論文リスト
- Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - CoTracker: It is Better to Track Together [74.84109704301127]
CoTrackerは、フレーム内の高密度な点をビデオシーケンスで共同で追跡する。
その結果,関節トラッキングの精度は有意に向上し,ロバスト性も向上した。
CoTrackerはショートウィンドウで慎重に動作しますが、長いビデオシーケンスでウィンドウをアンロールすることでトレーニングを行います。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - Towards Frame Rate Agnostic Multi-Object Tracking [76.82407173177138]
本稿では,FraMOT 問題に初めて取り組むために,FAPS を用いたフレームレート非依存MOT フレームワークを提案する。
具体的には,フレームレート情報を推論し,符号化するフレームレートアグノスティックアソシエーションモジュール(FAAM)を提案する。
FAPSは、パターンマッチングと融合を追跡することによって、トレーニングにおけるすべての後処理ステップを反映する。
論文 参考訳(メタデータ) (2022-09-23T04:25:19Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Real-time Online Multi-Object Tracking in Compressed Domain [66.40326768209]
近年,Multi-Object Tracking (MOT) 手法が望まれるトラッキング性能を実現している。
隣接するフレームが極めて関連性が高く冗長であるという事実に着想を得て、フレームをキーフレームと非キーフレームに分割する。
私たちのトラッカーは、同等のトラッカー性能を維持しながら、約6倍高速です。
論文 参考訳(メタデータ) (2022-04-05T09:47:24Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。