論文の概要: Global Tracking Transformers
- arxiv url: http://arxiv.org/abs/2203.13250v1
- Date: Thu, 24 Mar 2022 17:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:27:14.492312
- Title: Global Tracking Transformers
- Title(参考訳): グローバルトラッキングトランスフォーマー
- Authors: Xingyi Zhou, Tianwei Yin, Vladlen Koltun, Phillip Kr\"ahenb\"uhl
- Abstract要約: グローバル多目的追跡のためのトランスフォーマーに基づく新しいアーキテクチャを提案する。
コアコンポーネントはグローバルなトラッキングトランスフォーマーで、シーケンス内のすべてのフレームからオブジェクトを操作する。
われわれのフレームワークは、最先端の大語彙検出装置にシームレスに統合され、あらゆる物体を追跡できる。
- 参考スコア(独自算出の注目度): 76.58184022651596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel transformer-based architecture for global multi-object
tracking. Our network takes a short sequence of frames as input and produces
global trajectories for all objects. The core component is a global tracking
transformer that operates on objects from all frames in the sequence. The
transformer encodes object features from all frames, and uses trajectory
queries to group them into trajectories. The trajectory queries are object
features from a single frame and naturally produce unique trajectories. Our
global tracking transformer does not require intermediate pairwise grouping or
combinatorial association, and can be jointly trained with an object detector.
It achieves competitive performance on the popular MOT17 benchmark, with 75.3
MOTA and 59.1 HOTA. More importantly, our framework seamlessly integrates into
state-of-the-art large-vocabulary detectors to track any objects. Experiments
on the challenging TAO dataset show that our framework consistently improves
upon baselines that are based on pairwise association, outperforming published
works by a significant 7.7 tracking mAP. Code is available at
https://github.com/xingyizhou/GTR.
- Abstract(参考訳): グローバル多目的追跡のためのトランスフォーマーに基づく新しいアーキテクチャを提案する。
我々のネットワークは短いフレーム列を入力として取り、全てのオブジェクトに対してグローバルなトラジェクトリを生成する。
コアコンポーネントはグローバルなトラッキングトランスフォーマーで、シーケンス内のすべてのフレームからオブジェクトを操作する。
トランスはすべてのフレームからオブジェクトをエンコードし、トラジェクトリクエリを使用してそれらをトラジェクトリにグループ化する。
トラジェクトリクエリは単一のフレームからオブジェクトの特徴であり、自然にユニークなトラジェクトリを生成する。
当社のグローバルトラッキングトランスフォーマは,中間的なペアワイズグループ化やコンビネーションアソシエーションは必要とせず,オブジェクト検出器と共同でトレーニングすることが可能です。
人気の高いMOT17ベンチマークで75.3 MOTAと59.1 HOTAの競合性能を達成した。
さらに重要なことに、我々のフレームワークはあらゆる物体を追跡するために最先端の大語彙検出器にシームレスに統合される。
挑戦的なTAOデータセットの実験は、我々のフレームワークがペアのアソシエーションに基づくベースラインを一貫して改善し、重要な7.7のトラッキングmAPによって公開された作品よりも優れています。
コードはhttps://github.com/xingyizhou/GTRで入手できる。
関連論文リスト
- PuTR: A Pure Transformer for Decoupled and Online Multi-Object Tracking [36.5272157173876]
我々は、純粋なトランスフォーマーが、疎結合でオンラインな方法で、短期および長期の関連を統一できることを示します。
実験により、古典的なトランスフォーマーアーキテクチャが自然に関連問題に適合し、強力なベースラインを達成できることが示されている。
この作業は、MOTタスクのための有望なTransformerベースのアプローチの先駆者であり、さらなる研究を促進するためのコードを提供する。
論文 参考訳(メタデータ) (2024-05-23T02:44:46Z) - Tracking Transforming Objects: A Benchmark [2.53045657890708]
本研究では、DTTOと呼ばれる、約9.3Kのフレームを含む100のシーケンスを含む、新しいTracking Transforming Objects専用のデータセットを収集する。
これらのシーケンス内の各フレームに対して手書きのバウンディングボックスを慎重に提供し、DTTOは変換対象を追跡するための先駆的なベンチマークとなる。
我々は,既存の手法の性能の理解とDTTOの今後の研究との比較を目的として,20の最先端トラッカーをベンチマークで徹底的に評価した。
論文 参考訳(メタデータ) (2024-04-28T11:24:32Z) - Efficient Joint Detection and Multiple Object Tracking with Spatially
Aware Transformer [0.8808021343665321]
マルチオブジェクト追跡のための軽量かつ高効率な関節検出・追跡パイプラインを提案する。
CNNの代わりにトランスフォーマーベースのバックボーンによって駆動される。
修正の結果、TransTrackの全体的なモデルサイズを58.73%、複雑さを78.72%削減しました。
論文 参考訳(メタデータ) (2022-11-09T07:19:33Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。