論文の概要: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers
with Dense Representations
- arxiv url: http://arxiv.org/abs/2210.13570v1
- Date: Mon, 24 Oct 2022 19:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:48:11.943871
- Title: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers
with Dense Representations
- Title(参考訳): Strong-TransCenter:Dense Representations を用いたマルチオブジェクト追跡の改善
- Authors: Amit Galor, Roy Orfaig, Ben-Zion Bobrovsky
- Abstract要約: TransCenterはトランスフォーマーベースのMOTアーキテクチャで、すべてのオブジェクトを正確に追跡するための高密度なオブジェクトクエリを備えている。
本稿では,トラック・バイ・ディテクト・パラダイムに基づくポスト処理機構を用いたトラッカーの改良について述べる。
新しいトラッカーでは,IDF1とHOTAの指標が大幅に改善され,MOTAの指標に匹敵する結果が得られた。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer networks have been a focus of research in many fields in recent
years, being able to surpass the state-of-the-art performance in different
computer vision tasks. A few attempts have been made to apply this method to
the task of Multiple Object Tracking (MOT), among those the state-of-the-art
was TransCenter, a transformer-based MOT architecture with dense object queries
for accurately tracking all the objects while keeping reasonable runtime.
TransCenter is the first center-based transformer framework for MOT, and is
also among the first to show the benefits of using transformer-based
architectures for MOT. In this paper we show an improvement to this tracker
using post processing mechanism based in the Track-by-Detection paradigm:
motion model estimation using Kalman filter and target Re-identification using
an embedding network. Our new tracker shows significant improvements in the
IDF1 and HOTA metrics and comparable results on the MOTA metric (70.9%, 59.8%
and 75.8% respectively) on the MOTChallenge MOT17 test dataset and improvement
on all 3 metrics (67.5%, 56.3% and 73.0%) on the MOT20 test dataset. Our
tracker is currently ranked first among transformer-based trackers in these
datasets. The code is publicly available at:
https://github.com/amitgalor18/STC_Tracker
- Abstract(参考訳): トランスフォーマーネットワークは近年、様々なコンピュータビジョンタスクにおける最先端の性能を超えることができる多くの分野の研究の焦点となっている。
この手法を複数のオブジェクト追跡(mot)のタスクに適用する試みがいくつか行われており、中でも最新技術はtranscenter(トランスフォーマーベースのmotアーキテクチャ)である。
TransCenterは、MOTのための最初のセンターベースのトランスフォーマーフレームワークであり、MOTにトランスフォーマーベースのアーキテクチャを使用するメリットを示す最初のフレームワークである。
本稿では,カルマンフィルタを用いた動きモデル推定と埋め込みネットワークを用いたターゲット再同定という,トラックバイ検出パラダイムに基づくポスト処理機構を用いたトラッカの改良を提案する。
新しいトラッカーは、MOT20テストデータセット上でのIDF1とHOTAメトリクスの大幅な改善と、MOT20テストデータセット上でのMOTAメトリック(それぞれ70.9%、59.8%、75.8%)と、すべての3メトリクス(67.5%、56.3%、73.0%)の改善を示している。
私たちのトラッカーは現在、これらのデータセットでトランスフォーマーベースのトラッカーの中で第1位です。
コードは、https://github.com/amitgalor18/STC_Trackerで公開されている。
関連論文リスト
- Separable Self and Mixed Attention Transformers for Efficient Object
Tracking [3.9160947065896803]
本稿では,軽量トラッキングのための自己・混在型アテンショントランスフォーマーアーキテクチャを提案する。
これらの貢献により、提案された軽量トラッカーは、トランスフォーマーベースのバックボーンとヘッドモジュールを、初めて同時にデプロイする。
シミュレーションの結果、SMATはGOT10k、TrackingNet、LaSOT、NfS30、UAV123、AVisTデータセット上の関連する軽量トラッカーのパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2023-09-07T19:23:02Z) - MotionTrack: End-to-End Transformer-based Multi-Object Tracing with
LiDAR-Camera Fusion [13.125168307241765]
複数のクラスでオブジェクトを追跡するための多モードセンサ入力を用いたエンドツーエンドトランスフォーマーベースMOTアルゴリズム(MotionTrack)を提案する。
MotionTrackとそのバリエーションは、他の古典的なベースラインモデルと比較して、nuScenesデータセット上のより良い結果(AMOTAスコア0.55)を達成する。
論文 参考訳(メタデータ) (2023-06-29T15:00:12Z) - Efficient Joint Detection and Multiple Object Tracking with Spatially
Aware Transformer [0.8808021343665321]
マルチオブジェクト追跡のための軽量かつ高効率な関節検出・追跡パイプラインを提案する。
CNNの代わりにトランスフォーマーベースのバックボーンによって駆動される。
修正の結果、TransTrackの全体的なモデルサイズを58.73%、複雑さを78.72%削減しました。
論文 参考訳(メタデータ) (2022-11-09T07:19:33Z) - TransFiner: A Full-Scale Refinement Approach for Multiple Object
Tracking [17.784388121222392]
複数オブジェクト追跡(Multiple Object Tracking、MOT)は、検出と関連性を含むタスクである。
変換器を用いたMOTのポストリファインメント手法であるTransFinerを提案する。
論文 参考訳(メタデータ) (2022-07-26T15:21:42Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Global Tracking Transformers [76.58184022651596]
グローバル多目的追跡のためのトランスフォーマーに基づく新しいアーキテクチャを提案する。
コアコンポーネントはグローバルなトラッキングトランスフォーマーで、シーケンス内のすべてのフレームからオブジェクトを操作する。
われわれのフレームワークは、最先端の大語彙検出装置にシームレスに統合され、あらゆる物体を追跡できる。
論文 参考訳(メタデータ) (2022-03-24T17:58:04Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - TransCenter: Transformers with Dense Queries for Multiple-Object
Tracking [87.75122600164167]
私たちは、標準表現(バウンディングボックス)は、マルチオブジェクトトラッキングのためのトランスフォーマー学習に適応していないと主張している。
複数のターゲットの中心を追跡するトランスフォーマーベースのアーキテクチャであるTransCenterを提案する。
論文 参考訳(メタデータ) (2021-03-28T14:49:36Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。