論文の概要: MOTRv2: Bootstrapping End-to-End Multi-Object Tracking by Pretrained
Object Detectors
- arxiv url: http://arxiv.org/abs/2211.09791v1
- Date: Thu, 17 Nov 2022 18:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:36:36.875235
- Title: MOTRv2: Bootstrapping End-to-End Multi-Object Tracking by Pretrained
Object Detectors
- Title(参考訳): motrv2: 事前学習された物体検出器によるエンドツーエンドのマルチオブジェクト追跡
- Authors: Yuang Zhang, Tiancai Wang, Xiangyu Zhang
- Abstract要約: MOTRv2は、事前訓練されたオブジェクト検出器でエンドツーエンドのマルチオブジェクト追跡をブートストラップするパイプラインである。
ダンストラックでは73.4% HOTAが第1位であり、グループ・ダンス・チャレンジでは第1位にランクインしている。
BDD100Kデータセットで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 14.69168925956635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose MOTRv2, a simple yet effective pipeline to
bootstrap end-to-end multi-object tracking with a pretrained object detector.
Existing end-to-end methods, e.g. MOTR and TrackFormer, are inferior to their
tracking-by-detection counterparts mainly due to their poor detection
performance. We aim to improve MOTR by elegantly incorporating an extra object
detector. We first adopt the anchor formulation of queries and then use an
extra object detector to generate proposals as anchors, providing detection
prior to MOTR. The simple modification greatly eases the conflict between joint
learning detection and association tasks in MOTR. MOTRv2 keeps the end-to-end
feature and scales well on large-scale benchmarks. MOTRv2 ranks the 1st place
(73.4% HOTA on DanceTrack) in the 1st Multiple People Tracking in Group Dance
Challenge. Moreover, MOTRv2 achieves state-of-the-art performance on BDD100K
dataset. We hope this simple and effective pipeline can provide some new
insights to the end-to-end MOT community. Code is available at
\url{https://github.com/megvii-research/MOTRv2}.
- Abstract(参考訳): 本稿では,事前学習された物体検出器を用いてエンドツーエンドのマルチオブジェクト追跡をブートストラップする,シンプルかつ効果的なパイプラインであるmotrv2を提案する。
motrやtrackformerといった既存のエンド・ツー・エンドの手法は、主に検出性能が低かったため、追跡・検出方式よりも劣っている。
我々は、追加の物体検出器をエレガントに組み込むことでMOTRを改善することを目指している。
まず、クエリのアンカー定式化を採用し、次に余分なオブジェクト検出器を使用してアンカーとして提案を生成し、MOTRに先立って検出する。
単純な修正により、MOTRにおける共同学習検出と関連タスクの衝突が大幅に緩和される。
MOTRv2はエンドツーエンドの機能を維持し、大規模ベンチマークでうまくスケールする。
MOTRv2はグループ・ダンス・チャレンジで1位(ダンストラックの73.4%HOTA)にランクインした。
さらに、MOTRv2はBDD100Kデータセット上で最先端のパフォーマンスを達成する。
このシンプルで効果的なパイプラインが、エンドツーエンドのMOTコミュニティに新たな洞察を与えてくれることを願っています。
コードは \url{https://github.com/megvii-research/motrv2} で入手できる。
関連論文リスト
- ADA-Track: End-to-End Multi-Camera 3D Multi-Object Tracking with Alternating Detection and Association [15.161640917854363]
多視点カメラによる3D MOTのための新しいエンドツーエンドフレームワークであるADA-Trackを紹介する。
エッジ拡張型クロスアテンションに基づく学習可能なデータアソシエーションモジュールを提案する。
我々は、この関連モジュールをDTRベースの3D検出器のデコーダ層に統合する。
論文 参考訳(メタデータ) (2024-05-14T19:02:33Z) - ReIDTrack: Multi-Object Track and Segmentation Without Motion [18.892491706535793]
我々は,高速検出と外観モデルのみに基づいてSOTAを実現することができるか検討する。
CVPR2023 WADワークショップではMOTSトラックで1位を獲得し,MOTSトラックで2位となった。
論文 参考訳(メタデータ) (2023-08-03T08:53:23Z) - Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking [27.74953961900086]
既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
本稿では,e2e-MOT をシャドウ概念を用いた新しいラベル割り当てにより,簡便かつ効果的な方法である Co-MOT を提案する。
論文 参考訳(メタデータ) (2023-05-22T05:18:34Z) - MOTR: End-to-End Multiple-Object Tracking with TRansformer [31.78906135775541]
初の完全エンドツーエンドのマルチオブジェクトトラッキングフレームワークであるMOTRを紹介します。
オブジェクトの長距離時間変動をモデル化することを学ぶ。
結果はMOTRが最先端の性能を達成することを示します。
論文 参考訳(メタデータ) (2021-05-07T13:27:01Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。