論文の概要: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers with Dense Representations
- arxiv url: http://arxiv.org/abs/2210.13570v2
- Date: Sat, 21 Dec 2024 10:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 22:39:25.807222
- Title: Strong-TransCenter: Improved Multi-Object Tracking based on Transformers with Dense Representations
- Title(参考訳): Strong-TransCenter:Dense Representationsを用いた変換器による多対象追跡の改善
- Authors: Amit Galor, Roy Orfaig, Ben-Zion Bobrovsky,
- Abstract要約: トランスフォーマーネットワークは近年、様々なコンピュータビジョンタスクにおける最先端の性能を超えることができる多くの分野の研究の焦点となっている。
マルチプルオブジェクトトラッキング(MOT)のタスクでは、トランスフォーマーのパワーを活用することは、いまだに探索されていない。
この領域における先駆的な取り組みの中で、トランスフォーマーベースのMOTアーキテクチャで、オブジェクトクエリが密集しているTransCenterは、適切なランタイムを維持しながら、例外的なトラッキング機能を示した。
本稿では,トラック・バイ・ディテクト・パラダイムに基づく後処理機構を提案する。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License:
- Abstract: Transformer networks have been a focus of research in many fields in recent years, being able to surpass the state-of-the-art performance in different computer vision tasks. However, in the task of Multiple Object Tracking (MOT), leveraging the power of Transformers remains relatively unexplored. Among the pioneering efforts in this domain, TransCenter, a Transformer-based MOT architecture with dense object queries, demonstrated exceptional tracking capabilities while maintaining reasonable runtime. Nonetheless, one critical aspect in MOT, track displacement estimation, presents room for enhancement to further reduce association errors. In response to this challenge, our paper introduces a novel improvement to TransCenter. We propose a post-processing mechanism grounded in the Track-by-Detection paradigm, aiming to refine the track displacement estimation. Our approach involves the integration of a carefully designed Kalman filter, which incorporates Transformer outputs into measurement error estimation, and the use of an embedding network for target re-identification. This combined strategy yields substantial improvement in the accuracy and robustness of the tracking process. We validate our contributions through comprehensive experiments on the MOTChallenge datasets MOT17 and MOT20, where our proposed approach outperforms other Transformer-based trackers. The code is publicly available at: https://github.com/amitgalor18/STC_Tracker
- Abstract(参考訳): トランスフォーマーネットワークは近年、様々なコンピュータビジョンタスクにおける最先端の性能を超えることができる多くの分野の研究の焦点となっている。
しかし、MOT(Multiple Object Tracking)のタスクでは、トランスフォーマーのパワーを活用することは、いまだに探索されていない。
この領域における先駆的な取り組みの中で、トランスフォーマーベースのMOTアーキテクチャで、オブジェクトクエリが密集しているTransCenterは、適切なランタイムを維持しながら、例外的なトラッキング機能を示した。
それにもかかわらず、MOTの1つの重要な側面、軌道変位推定は、関連誤差をさらに低減するために強化の余地を提示する。
この課題に対して,本論文では,TransCenterの新たな改良について紹介する。
本稿では,トラック・バイ・ディテクト・パラダイムに基づく後処理機構を提案する。
提案手法では,Transformer 出力を計測誤差推定に組み込んだKalman フィルタと,ターゲット再同定のための埋め込みネットワークを利用する。
この組み合わせ戦略は、追跡プロセスの正確性と堅牢性を大幅に向上させる。
我々はMOTChallengeデータセットMOT17とMOT20の総合的な実験を通じてコントリビューションを検証する。
コードは、https://github.com/amitgalor18/STC_Trackerで公開されている。
関連論文リスト
- OneTrack-M: A multitask approach to transformer-based MOT models [0.0]
マルチオブジェクト追跡(MOT)はコンピュータビジョンにおいて重要な問題である。
OneTrack-Mは、計算効率と精度のトラッキングを強化するために設計されたトランスフォーマーベースのMOTモデルである。
論文 参考訳(メタデータ) (2025-02-06T20:02:06Z) - Heterogeneous Graph Transformer for Multiple Tiny Object Tracking in RGB-T Videos [31.910202172609313]
既存のマルチオブジェクト追跡アルゴリズムは、一般的に単一のモダリティシーンに焦点を当てている。
我々はHGTトラック(異種グラフ変換器に基づくマルチTiny-Object Tracking)と呼ばれる新しいフレームワークを提案する。
本稿では,RGB-Tを融合した複数物体追跡のためのVT-Tiny-MOT (Visible-Thermal Tiny Multi-Object Tracking) の最初のベンチマークを紹介する。
論文 参考訳(メタデータ) (2024-12-14T15:17:49Z) - CT-MVSNet: Efficient Multi-View Stereo with Cross-scale Transformer [8.962657021133925]
クロススケールトランス(CT)プロセスは、追加計算なしで異なる段階の表現を特徴付ける。
複数のスケールで異なる対話型アテンションの組み合わせを利用する適応型マッチング認識変換器(AMT)を導入する。
また、より細かなコストボリューム構成に大まかにグローバルな意味情報を埋め込む2機能ガイドアグリゲーション(DFGA)も提案する。
論文 参考訳(メタデータ) (2023-12-14T01:33:18Z) - MotionTrack: End-to-End Transformer-based Multi-Object Tracing with
LiDAR-Camera Fusion [13.125168307241765]
複数のクラスでオブジェクトを追跡するための多モードセンサ入力を用いたエンドツーエンドトランスフォーマーベースMOTアルゴリズム(MotionTrack)を提案する。
MotionTrackとそのバリエーションは、他の古典的なベースラインモデルと比較して、nuScenesデータセット上のより良い結果(AMOTAスコア0.55)を達成する。
論文 参考訳(メタデータ) (2023-06-29T15:00:12Z) - Efficient Joint Detection and Multiple Object Tracking with Spatially
Aware Transformer [0.8808021343665321]
マルチオブジェクト追跡のための軽量かつ高効率な関節検出・追跡パイプラインを提案する。
CNNの代わりにトランスフォーマーベースのバックボーンによって駆動される。
修正の結果、TransTrackの全体的なモデルサイズを58.73%、複雑さを78.72%削減しました。
論文 参考訳(メタデータ) (2022-11-09T07:19:33Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - Transformer Tracking [76.96796612225295]
相関は追跡分野において、特に人気のあるシャム系トラッカーにおいて重要な役割を果たす。
本研究は,注意のみを用いてテンプレートと検索領域を効果的に結合した,新しい注意型特徴融合ネットワークを提案する。
実験により、TransTは6つの挑戦的なデータセットで非常に有望な結果が得られます。
論文 参考訳(メタデータ) (2021-03-29T09:06:55Z) - TransCenter: Transformers with Dense Queries for Multiple-Object
Tracking [87.75122600164167]
私たちは、標準表現(バウンディングボックス)は、マルチオブジェクトトラッキングのためのトランスフォーマー学習に適応していないと主張している。
複数のターゲットの中心を追跡するトランスフォーマーベースのアーキテクチャであるTransCenterを提案する。
論文 参考訳(メタデータ) (2021-03-28T14:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。