論文の概要: Associate Everything Detected: Facilitating Tracking-by-Detection to the Unknown
- arxiv url: http://arxiv.org/abs/2409.09293v1
- Date: Sat, 14 Sep 2024 03:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:29:12.227471
- Title: Associate Everything Detected: Facilitating Tracking-by-Detection to the Unknown
- Title(参考訳): トラッキング・バイ・ディテクト」で発見されるものすべて
- Authors: Zimeng Fang, Chao Liang, Xue Zhou, Shuyuan Zhu, Xi Li,
- Abstract要約: 本稿では,CV-MOT と OV-MOT を市販の検出器と統合した統合型フレームワークであるAssociate Everything Detected (AED) を提案する。
AEDは事前の知識(例えばモーションキュー)を排除し、複雑な軌跡を扱うために高度に堅牢な特徴学習にのみ依存する。
既存の強力なOV-MOT法やCV-MOT法と比較して,AEDはTAO,SportsMOT,DanceTrackにおいて事前の知識なく優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 22.819492352604428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) emerges as a pivotal and highly promising branch in the field of computer vision. Classical closed-vocabulary MOT (CV-MOT) methods aim to track objects of predefined categories. Recently, some open-vocabulary MOT (OV-MOT) methods have successfully addressed the problem of tracking unknown categories. However, we found that the CV-MOT and OV-MOT methods each struggle to excel in the tasks of the other. In this paper, we present a unified framework, Associate Everything Detected (AED), that simultaneously tackles CV-MOT and OV-MOT by integrating with any off-the-shelf detector and supports unknown categories. Different from existing tracking-by-detection MOT methods, AED gets rid of prior knowledge (e.g. motion cues) and relies solely on highly robust feature learning to handle complex trajectories in OV-MOT tasks while keeping excellent performance in CV-MOT tasks. Specifically, we model the association task as a similarity decoding problem and propose a sim-decoder with an association-centric learning mechanism. The sim-decoder calculates similarities in three aspects: spatial, temporal, and cross-clip. Subsequently, association-centric learning leverages these threefold similarities to ensure that the extracted features are appropriate for continuous tracking and robust enough to generalize to unknown categories. Compared with existing powerful OV-MOT and CV-MOT methods, AED achieves superior performance on TAO, SportsMOT, and DanceTrack without any prior knowledge. Our code is available at https://github.com/balabooooo/AED.
- Abstract(参考訳): マルチオブジェクトトラッキング(MOT)は、コンピュータビジョンの分野において、重要かつ有望な分岐として現れる。
古典的閉語彙MOT(CV-MOT)法は、予め定義されたカテゴリのオブジェクトを追跡することを目的としている。
近年,OV-MOT (open-vocabulary MOT) 手法が未知のカテゴリの追跡に成功している。
しかし, CV-MOT法とOV-MOT法は, それぞれが他方のタスクに優れていることが判明した。
本稿では,CV-MOT と OV-MOT を併用して,市販の検知器と統合し,未知のカテゴリをサポートする統合型フレームワークであるAssociate Everything Detected (AED)を提案する。
従来のトラッキング・バイ・検出MOT法とは異なり、AEDは事前の知識(例えばモーションキュー)を排除し、CV-MOTタスクにおいて優れた性能を維持しつつ、OV-MOTタスクにおける複雑なトラジェクトリを処理するために、高度に堅牢な特徴学習にのみ依存する。
具体的には、アソシエーションタスクを類似性復号化問題としてモデル化し、アソシエーション中心の学習機構を備えたシムデコーダを提案する。
sim-decoderは、空間、時間、クロスクリップの3つの側面で類似性を計算する。
その後、連想中心学習はこれらの3つの類似性を活用し、抽出された特徴が連続的な追跡に適しており、未知のカテゴリに一般化するのに十分なロバストであることを保証する。
既存の強力なOV-MOT法やCV-MOT法と比較して,AEDはTAO,SportsMOT,DanceTrackにおいて事前の知識なく優れた性能を発揮する。
私たちのコードはhttps://github.com/balabooooo/AED.comで公開されています。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - ADA-Track: End-to-End Multi-Camera 3D Multi-Object Tracking with Alternating Detection and Association [15.161640917854363]
多視点カメラによる3D MOTのための新しいエンドツーエンドフレームワークであるADA-Trackを紹介する。
エッジ拡張型クロスアテンションに基づく学習可能なデータアソシエーションモジュールを提案する。
我々は、この関連モジュールをDTRベースの3D検出器のデコーダ層に統合する。
論文 参考訳(メタデータ) (2024-05-14T19:02:33Z) - Multiple Object Tracking as ID Prediction [14.890192237433771]
マルチプルオブジェクトトラッキング(MOT)では、トラッキング・バイ・検出の手法が長い間テストされてきた。
シングルフレーム検出器を活用し、手作りのアルゴリズムとサロゲートタスクを通じてオブジェクト関連を後処理のステップとして扱う。
しかし、テクニックの性質は、トレーニングデータのエンドツーエンドの活用を妨げるため、ますます面倒で困難な手作業の修正につながる。
論文 参考訳(メタデータ) (2024-03-25T15:09:54Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - EnsembleMOT: A Step towards Ensemble Learning of Multiple Object
Tracking [18.741196817925534]
複数オブジェクト追跡(MOT)は近年急速に進歩している。
そこで我々は,EnsembleMOTと呼ばれるMOTのためのシンプルだが効果的なアンサンブル手法を提案する。
本手法はモデル非依存であり,学習手順は不要である。
論文 参考訳(メタデータ) (2022-10-11T09:18:01Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。