論文の概要: TrackFormer: Multi-Object Tracking with Transformers
- arxiv url: http://arxiv.org/abs/2101.02702v1
- Date: Thu, 7 Jan 2021 18:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 15:25:19.193649
- Title: TrackFormer: Multi-Object Tracking with Transformers
- Title(参考訳): TrackFormer: トランスフォーマーによるマルチオブジェクトトラッキング
- Authors: Tim Meinhardt, Alexander Kirillov, Laura Leal-Taixe, Christoph
Feichtenhofer
- Abstract要約: TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
- 参考スコア(独自算出の注目度): 92.25832593088421
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TrackFormer, an end-to-end multi-object tracking and segmentation
model based on an encoder-decoder Transformer architecture. Our approach
introduces track query embeddings which follow objects through a video sequence
in an autoregressive fashion. New track queries are spawned by the DETR object
detector and embed the position of their corresponding object over time. The
Transformer decoder adjusts track query embeddings from frame to frame, thereby
following the changing object positions. TrackFormer achieves a seamless data
association between frames in a new tracking-by-attention paradigm by self- and
encoder-decoder attention mechanisms which simultaneously reason about
location, occlusion, and object identity. TrackFormer yields state-of-the-art
performance on the tasks of multi-object tracking (MOT17) and segmentation
(MOTS20). We hope our unified way of performing detection and tracking will
foster future research in multi-object tracking and video understanding. Code
will be made publicly available.
- Abstract(参考訳): 本稿では,エンコーダ・デコーダトランスフォーマアーキテクチャに基づく,エンドツーエンドのマルチオブジェクト追跡およびセグメンテーションモデルであるtrackformerを提案する。
提案手法では,自動回帰方式でビデオシーケンスを通じてオブジェクトを追従するトラッククエリ埋め込みを導入する。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
トランスデコーダは、フレームからフレームへのトラッククエリ埋め込みを調整し、変化したオブジェクト位置に従う。
TrackFormerは、ロケーション、オクルージョン、オブジェクトアイデンティティを同時に推論するセルフおよびエンコーダ・デコーダのアテンションメカニズムによって、新しいトラッキング・バイ・アテンション・パラダイムにおいて、フレーム間のシームレスなデータ結合を実現する。
TrackFormerは、マルチオブジェクトトラッキング(MOT17)とセグメンテーション(MOTS20)のタスクで最先端のパフォーマンスを得る。
検出と追跡の統一的な方法が、マルチオブジェクト追跡とビデオ理解の将来の研究を促進することを願っています。
コードは公開される予定だ。
関連論文リスト
- DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Looking Beyond Two Frames: End-to-End Multi-Object Tracking Using
Spatial and Temporal Transformers [20.806348407522083]
MO3TRはエンドツーエンドのオンラインマルチオブジェクトトラッキングフレームワークです。
オブジェクトの相互作用を長期の時間的埋め込みにエンコードする。
明示的なデータアソシエーションモジュールを必要とせずに、開始と終了を追跡する。
論文 参考訳(メタデータ) (2021-03-27T07:23:38Z) - Transformer Meets Tracker: Exploiting Temporal Context for Robust Visual
Tracking [47.205979159070445]
個々のビデオフレームをブリッジし、堅牢なオブジェクト追跡のためのトランスフォーマーアーキテクチャを通じて、時間的コンテキストを探索する。
自然言語処理タスクにおける変換器の古典的な使用とは異なり、エンコーダとデコーダを2つの並列分岐に分離する。
本手法は,有意な追跡ベンチマークに関する最新の記録を複数設定する。
論文 参考訳(メタデータ) (2021-03-22T09:20:05Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。