論文の概要: Tracking by Associating Clips
- arxiv url: http://arxiv.org/abs/2212.10149v1
- Date: Tue, 20 Dec 2022 10:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:24:12.649507
- Title: Tracking by Associating Clips
- Title(参考訳): クリップの関連付けによる追跡
- Authors: Sanghyun Woo, Kwanyong Park, Seoung Wug Oh, In So Kweon, Joon-Young
Lee
- Abstract要約: 本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
- 参考スコア(独自算出の注目度): 110.08925274049409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The tracking-by-detection paradigm today has become the dominant method for
multi-object tracking and works by detecting objects in each frame and then
performing data association across frames. However, its sequential frame-wise
matching property fundamentally suffers from the intermediate interruptions in
a video, such as object occlusions, fast camera movements, and abrupt light
changes. Moreover, it typically overlooks temporal information beyond the two
frames for matching. In this paper, we investigate an alternative by treating
object association as clip-wise matching. Our new perspective views a single
long video sequence as multiple short clips, and then the tracking is performed
both within and between the clips. The benefits of this new approach are two
folds. First, our method is robust to tracking error accumulation or
propagation, as the video chunking allows bypassing the interrupted frames, and
the short clip tracking avoids the conventional error-prone long-term track
memory management. Second, the multiple frame information is aggregated during
the clip-wise matching, resulting in a more accurate long-range track
association than the current frame-wise matching. Given the state-of-the-art
tracking-by-detection tracker, QDTrack, we showcase how the tracking
performance improves with our new tracking formulation. We evaluate our
proposals on two tracking benchmarks, TAO and MOT17 that have complementary
characteristics and challenges each other.
- Abstract(参考訳): 現在、トラッキング・バイ・検出パラダイムは、多目的追跡の主要な手法となり、各フレーム内のオブジェクトを検出し、フレーム間でデータアソシエーションを行う。
しかし、そのシーケンシャルなフレームワイドマッチング特性は、基本的には、オブジェクトの閉塞、高速カメラの動き、突然の光の変化といった、ビデオの中間的な中断に悩まされる。
さらに、通常、マッチングのために2つのフレームを超える時間的情報を見落とします。
本稿では,クリップワイズマッチングとしてオブジェクトアソシエーションを扱い,代替案について検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しいアプローチの利点は2つあります。
まず,ビデオチャンキングでは割り込みフレームをバイパスでき,ショートクリップトラッキングでは従来の長期トラックメモリ管理を回避できるため,誤りの蓄積や伝播の追跡にロバストな手法である。
次に、クリップワイズマッチング中に複数のフレーム情報を集約し、現在のフレームワイズマッチングよりも精度の高い長距離トラック関連付けを行う。
最先端のトラッキング・バイ・ディテクト・トラッカーであるQDTrackを考えると,新しいトラッキング・フォーミュレーションによってトラッキング性能が向上することを示す。
本提案は,相互に相補的な特徴と課題を有する2つの追跡ベンチマークであるTAOとMOT17について評価する。
関連論文リスト
- Collaborative Tracking Learning for Frame-Rate-Insensitive Multi-Object
Tracking [3.781471919731034]
低フレームレートのマルチオブジェクトトラッキング(MOT)は、エッジデバイスの制約を満たすために、計算、ストレージ、電力オーバーヘッドを削減できる。
本稿では,コラボレーティブ・トラッキング・ラーニング(ColTrack)によるフレームレート非感性MOTを,問合せに基づくエンドツーエンドで探索することを提案する。
論文 参考訳(メタデータ) (2023-08-11T02:25:58Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Real-time Online Multi-Object Tracking in Compressed Domain [66.40326768209]
近年,Multi-Object Tracking (MOT) 手法が望まれるトラッキング性能を実現している。
隣接するフレームが極めて関連性が高く冗長であるという事実に着想を得て、フレームをキーフレームと非キーフレームに分割する。
私たちのトラッカーは、同等のトラッカー性能を維持しながら、約6倍高速です。
論文 参考訳(メタデータ) (2022-04-05T09:47:24Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - Joint Detection and Tracking in Videos with Identification Features [36.55599286568541]
本稿では,ビデオ検出,追跡,再識別機能の最初の共同最適化を提案する。
提案手法はMOTの最先端に到達し,オンライントラッカーにおけるUA-DETRAC'18追跡課題のうち,第1位,第3位にランクインした。
論文 参考訳(メタデータ) (2020-05-21T21:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。