論文の概要: MOTR: End-to-End Multiple-Object Tracking with TRansformer
- arxiv url: http://arxiv.org/abs/2105.03247v1
- Date: Fri, 7 May 2021 13:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:15:34.779659
- Title: MOTR: End-to-End Multiple-Object Tracking with TRansformer
- Title(参考訳): MOTR:TRansformerによるエンドツーエンド多目的追跡
- Authors: Fangao Zeng, Bin Dong, Tiancai Wang, Cheng Chen, Xiangyu Zhang, Yichen
Wei
- Abstract要約: 初の完全エンドツーエンドのマルチオブジェクトトラッキングフレームワークであるMOTRを紹介します。
オブジェクトの長距離時間変動をモデル化することを学ぶ。
結果はMOTRが最先端の性能を達成することを示します。
- 参考スコア(独自算出の注目度): 31.78906135775541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The key challenge in multiple-object tracking (MOT) task is temporal modeling
of the object under track. Existing tracking-by-detection methods adopt simple
heuristics, such as spatial or appearance similarity. Such methods, in spite of
their commonality, are overly simple and insufficient to model complex
variations, such as tracking through occlusion. Inherently, existing methods
lack the ability to learn temporal variations from data. In this paper, we
present MOTR, the first fully end-to-end multiple-object tracking framework. It
learns to model the long-range temporal variation of the objects. It performs
temporal association implicitly and avoids previous explicit heuristics. Built
on Transformer and DETR, MOTR introduces the concept of "track query". Each
track query models the entire track of an object. It is transferred and updated
frame-by-frame to perform object detection and tracking, in a seamless manner.
Temporal aggregation network combined with multi-frame training is proposed to
model the long-range temporal relation. Experimental results show that MOTR
achieves state-of-the-art performance. Code is available at
https://github.com/megvii-model/MOTR.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)タスクにおける重要な課題は、トラック中のオブジェクトの時間的モデリングである。
既存のトラッキングバイ検出法は、空間的または外観的類似性のような単純なヒューリスティックを採用する。
このような手法は、共通性にもかかわらず、過剰に単純であり、閉塞による追跡のような複雑なバリエーションをモデル化するには不十分である。
既存の手法ではデータから時間変動を学習する能力がない。
本稿では,最初の完全エンドツーエンドのマルチオブジェクトトラッキングフレームワークMOTRを提案する。
オブジェクトの長距離時間変動をモデル化することを学ぶ。
暗黙的に時間的関連付けを行い、以前の明示的なヒューリスティックを避ける。
Transformer と DETR 上に構築された MOTR は "トラッククエリ" という概念を導入している。
各トラッククエリは、オブジェクトのトラック全体をモデル化する。
オブジェクトの検出と追跡をシームレスに行うために、フレーム単位で転送および更新される。
時間的アグリゲーションネットワークと多フレームトレーニングを組み合わせることで、長距離時間的関係をモデル化する。
実験の結果,motrは最先端のパフォーマンスを達成できた。
コードはhttps://github.com/megvii-model/MOTRで入手できる。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Contrastive Learning for Multi-Object Tracking with Transformers [79.61791059432558]
我々は、DETRをインスタンスレベルのコントラスト損失を用いてMOTモデルに変換する方法を示す。
本手法では,検出能力を維持しながらオブジェクトの外観を学習し,オーバーヘッドを少なく抑える。
そのパフォーマンスは、BDD100Kデータセットにおいて、以前の最先端の+2.6 mMOTAを上回っている。
論文 参考訳(メタデータ) (2023-11-14T10:07:52Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Standing Between Past and Future: Spatio-Temporal Modeling for
Multi-Camera 3D Multi-Object Tracking [30.357116118917368]
本稿では,エンドツーエンドのマルチカメラ3Dマルチオブジェクト追跡フレームワークを提案する。
我々はこれを"Past-and-Future reasoning for Tracking"(PFTrack)と呼ぶ。
論文 参考訳(メタデータ) (2023-02-07T23:46:34Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Looking Beyond Two Frames: End-to-End Multi-Object Tracking Using
Spatial and Temporal Transformers [20.806348407522083]
MO3TRはエンドツーエンドのオンラインマルチオブジェクトトラッキングフレームワークです。
オブジェクトの相互作用を長期の時間的埋め込みにエンコードする。
明示的なデータアソシエーションモジュールを必要とせずに、開始と終了を追跡する。
論文 参考訳(メタデータ) (2021-03-27T07:23:38Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking [20.66906781151]
マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-28T18:12:39Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。