論文の概要: FastTracker: Real-Time and Accurate Visual Tracking
- arxiv url: http://arxiv.org/abs/2508.14370v1
- Date: Wed, 20 Aug 2025 02:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.317501
- Title: FastTracker: Real-Time and Accurate Visual Tracking
- Title(参考訳): FastTracker: リアルタイムかつ正確なビジュアルトラッキング
- Authors: Hamidreza Hashempoor, Yu Dong Hwang,
- Abstract要約: 本稿では,複数のオブジェクトタイプを扱える汎用的な追跡フレームワークを提案する。
提案手法は,(1)密閉物体の識別を向上する隠蔽認識再識別機構,(2)道路構造認識トラックレット改質戦略の2つの重要な要素を組み込んだ。
大規模な実験結果から,提案手法は新たに導入されたデータセットといくつかの公開ベンチマークの両方で堅牢な性能を実現することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conventional multi-object tracking (MOT) systems are predominantly designed for pedestrian tracking and often exhibit limited generalization to other object categories. This paper presents a generalized tracking framework capable of handling multiple object types, with a particular emphasis on vehicle tracking in complex traffic scenes. The proposed method incorporates two key components: (1) an occlusion-aware re-identification mechanism that enhances identity preservation for heavily occluded objects, and (2) a road-structure-aware tracklet refinement strategy that utilizes semantic scene priors such as lane directions, crosswalks, and road boundaries to improve trajectory continuity and accuracy. In addition, we introduce a new benchmark dataset comprising diverse vehicle classes with frame-level tracking annotations, specifically curated to support evaluation of vehicle-focused tracking methods. Extensive experimental results demonstrate that the proposed approach achieves robust performance on both the newly introduced dataset and several public benchmarks, highlighting its effectiveness in general-purpose object tracking. While our framework is designed for generalized multi-class tracking, it also achieves strong performance on conventional benchmarks, with HOTA scores of 66.4 on MOT17 and 65.7 on MOT20 test sets. Code and Benchmark are available: github.com/Hamidreza-Hashempoor/FastTracker, huggingface.co/datasets/Hamidreza-Hashemp/FastTracker-Benchmark.
- Abstract(参考訳): 従来のマルチオブジェクトトラッキング(MOT)システムは、主に歩行者追跡用に設計されており、しばしば他の対象カテゴリに限定した一般化を示す。
本稿では,複雑な交通シーンにおける車両追跡に特に重点を置いて,複数のオブジェクトタイプを扱える汎用的な追跡フレームワークを提案する。
提案手法は,(1)密閉物体の識別を向上する隠蔽認識再識別機構,(2)車線方向,横断歩道,道路境界といったセマンティックシーンを利用した道路構造認識トラックレット改質戦略を具体化し,軌道の連続性と精度を向上させる。
さらに,フレームレベルのトラッキングアノテーションを付加した多様な車両クラスからなる新しいベンチマークデータセットを導入し,車種別トラッキング手法の評価を支援する。
大規模な実験結果から,提案手法は新たに導入されたデータセットといくつかの公開ベンチマークの両方で堅牢な性能を実現し,汎用オブジェクトトラッキングの有効性を強調した。
フレームワークは汎用的なマルチクラストラッキング用に設計されているが,従来のベンチマークでは,MOT17では66.4,MOT20では65.7のスコアで高いパフォーマンスを実現している。
github.com/Hamidreza-Hashempoor/FastTracker, huggingface.co/datasets/Hamidreza-Hashemp/FastTracker-Benchmark。
関連論文リスト
- Tracking by Detection and Query: An Efficient End-to-End Framework for Multi-Object Tracking [23.800994163971502]
マルチオブジェクトトラッキング(MOT)は、トラッキング・バイ・検出(TBD)とトラッキング・バイ・クエリ(TBQ)の2つのパラダイムによって支配されている。
本稿では,両パラダイムの長所を効果的に組み合わせたTBDQ-Netを提案する。
提案手法は,MOT調整アソシエータと事前学習した高性能検出器を効率よく統合する。
論文 参考訳(メタデータ) (2024-11-09T14:38:08Z) - Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - Iterative Scale-Up ExpansionIoU and Deep Features Association for
Multi-Object Tracking in Sports [26.33239898091364]
本稿では,スポーツシナリオに対するDeep ExpansionIoU (Deep-EIoU) という,オンラインかつ堅牢な多対象追跡手法を提案する。
従来の手法とは異なり、カルマンフィルタの使用を放棄し、スポーツシナリオにおける拡張IoUの反復的なスケールアップと深い特徴を活用して、ロバストなトラッキングを行う。
提案手法は,SportsMOTデータセットで77.2%,SportsNet-Trackingデータセットで85.4%を達成し,不規則な動き物体の追跡に顕著な効果を示した。
論文 参考訳(メタデータ) (2023-06-22T17:47:08Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。