論文の概要: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers with Dense Representations
- arxiv url: http://arxiv.org/abs/2210.13570v2
- Date: Sat, 21 Dec 2024 10:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 22:39:25.807222
- Title: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers with Dense Representations
- Title(参考訳): Strong-TransCenter:Dense Representationsを用いた変換器による多対象追跡の改善
- Authors: Amit Galor, Roy Orfaig, Ben-Zion Bobrovsky,
- Abstract要約: トランスフォーマーネットワークは近年、様々なコンピュータビジョンタスクにおける最先端の性能を超えることができる多くの分野の研究の焦点となっている。
マルチプルオブジェクトトラッキング(MOT)のタスクでは、トランスフォーマーのパワーを活用することは、いまだに探索されていない。
この領域における先駆的な取り組みの中で、トランスフォーマーベースのMOTアーキテクチャで、オブジェクトクエリが密集しているTransCenterは、適切なランタイムを維持しながら、例外的なトラッキング機能を示した。
本稿では,トラック・バイ・ディテクト・パラダイムに基づく後処理機構を提案する。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License:
- Abstract: Transformer networks have been a focus of research in many fields in recent years, being able to surpass the state-of-the-art performance in different computer vision tasks. However, in the task of Multiple Object Tracking (MOT), leveraging the power of Transformers remains relatively unexplored. Among the pioneering efforts in this domain, TransCenter, a Transformer-based MOT architecture with dense object queries, demonstrated exceptional tracking capabilities while maintaining reasonable runtime. Nonetheless, one critical aspect in MOT, track displacement estimation, presents room for enhancement to further reduce association errors. In response to this challenge, our paper introduces a novel improvement to TransCenter. We propose a post-processing mechanism grounded in the Track-by-Detection paradigm, aiming to refine the track displacement estimation. Our approach involves the integration of a carefully designed Kalman filter, which incorporates Transformer outputs into measurement error estimation, and the use of an embedding network for target re-identification. This combined strategy yields substantial improvement in the accuracy and robustness of the tracking process. We validate our contributions through comprehensive experiments on the MOTChallenge datasets MOT17 and MOT20, where our proposed approach outperforms other Transformer-based trackers. The code is publicly available at: https://github.com/amitgalor18/STC_Tracker
- Abstract(参考訳): トランスフォーマーネットワークは近年、様々なコンピュータビジョンタスクにおける最先端の性能を超えることができる多くの分野の研究の焦点となっている。
しかし、MOT(Multiple Object Tracking)のタスクでは、トランスフォーマーのパワーを活用することは、いまだに探索されていない。
この領域における先駆的な取り組みの中で、トランスフォーマーベースのMOTアーキテクチャで、オブジェクトクエリが密集しているTransCenterは、適切なランタイムを維持しながら、例外的なトラッキング機能を示した。
それにもかかわらず、MOTの1つの重要な側面、軌道変位推定は、関連誤差をさらに低減するために強化の余地を提示する。
この課題に対して,本論文では,TransCenterの新たな改良について紹介する。
本稿では,トラック・バイ・ディテクト・パラダイムに基づく後処理機構を提案する。
提案手法では,Transformer 出力を計測誤差推定に組み込んだKalman フィルタと,ターゲット再同定のための埋め込みネットワークを利用する。
この組み合わせ戦略は、追跡プロセスの正確性と堅牢性を大幅に向上させる。
我々はMOTChallengeデータセットMOT17とMOT20の総合的な実験を通じてコントリビューションを検証する。
コードは、https://github.com/amitgalor18/STC_Trackerで公開されている。
関連論文リスト
- Separable Self and Mixed Attention Transformers for Efficient Object
Tracking [3.9160947065896803]
本稿では,軽量トラッキングのための自己・混在型アテンショントランスフォーマーアーキテクチャを提案する。
これらの貢献により、提案された軽量トラッカーは、トランスフォーマーベースのバックボーンとヘッドモジュールを、初めて同時にデプロイする。
シミュレーションの結果、SMATはGOT10k、TrackingNet、LaSOT、NfS30、UAV123、AVisTデータセット上の関連する軽量トラッカーのパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2023-09-07T19:23:02Z) - MotionTrack: End-to-End Transformer-based Multi-Object Tracing with
LiDAR-Camera Fusion [13.125168307241765]
複数のクラスでオブジェクトを追跡するための多モードセンサ入力を用いたエンドツーエンドトランスフォーマーベースMOTアルゴリズム(MotionTrack)を提案する。
MotionTrackとそのバリエーションは、他の古典的なベースラインモデルと比較して、nuScenesデータセット上のより良い結果(AMOTAスコア0.55)を達成する。
論文 参考訳(メタデータ) (2023-06-29T15:00:12Z) - Efficient Joint Detection and Multiple Object Tracking with Spatially
Aware Transformer [0.8808021343665321]
マルチオブジェクト追跡のための軽量かつ高効率な関節検出・追跡パイプラインを提案する。
CNNの代わりにトランスフォーマーベースのバックボーンによって駆動される。
修正の結果、TransTrackの全体的なモデルサイズを58.73%、複雑さを78.72%削減しました。
論文 参考訳(メタデータ) (2022-11-09T07:19:33Z) - TransFiner: A Full-Scale Refinement Approach for Multiple Object
Tracking [17.784388121222392]
複数オブジェクト追跡(Multiple Object Tracking、MOT)は、検出と関連性を含むタスクである。
変換器を用いたMOTのポストリファインメント手法であるTransFinerを提案する。
論文 参考訳(メタデータ) (2022-07-26T15:21:42Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Global Tracking Transformers [76.58184022651596]
グローバル多目的追跡のためのトランスフォーマーに基づく新しいアーキテクチャを提案する。
コアコンポーネントはグローバルなトラッキングトランスフォーマーで、シーケンス内のすべてのフレームからオブジェクトを操作する。
われわれのフレームワークは、最先端の大語彙検出装置にシームレスに統合され、あらゆる物体を追跡できる。
論文 参考訳(メタデータ) (2022-03-24T17:58:04Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - TransCenter: Transformers with Dense Queries for Multiple-Object
Tracking [87.75122600164167]
私たちは、標準表現(バウンディングボックス)は、マルチオブジェクトトラッキングのためのトランスフォーマー学習に適応していないと主張している。
複数のターゲットの中心を追跡するトランスフォーマーベースのアーキテクチャであるTransCenterを提案する。
論文 参考訳(メタデータ) (2021-03-28T14:49:36Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。