論文の概要: FeatureSORT: Essential Features for Effective Tracking
- arxiv url: http://arxiv.org/abs/2407.04249v1
- Date: Fri, 5 Jul 2024 04:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-08 14:41:15.129369
- Title: FeatureSORT: Essential Features for Effective Tracking
- Title(参考訳): FeatureSORT: 効果的なトラッキングに不可欠な機能
- Authors: Hamidreza Hashempoor, Rosemary Koikara, Yu Dong Hwang,
- Abstract要約: 本稿では,オンライン複数オブジェクト追跡のための新しいトラッカーについて紹介する。
衣料品の色やスタイル,対象方向など,異なる外観特徴を統合することで,オンライントラッキングの精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we introduce a novel tracker designed for online multiple object tracking with a focus on being simple, while being effective. we provide multiple feature modules each of which stands for a particular appearance information. By integrating distinct appearance features, including clothing color, style, and target direction, alongside a ReID network for robust embedding extraction, our tracker significantly enhances online tracking accuracy. Additionally, we propose the incorporation of a stronger detector and also provide an advanced post processing methods that further elevate the tracker's performance. During real time operation, we establish measurement to track associated distance function which includes the IoU, direction, color, style, and ReID features similarity information, where each metric is calculated separately. With the design of our feature related distance function, it is possible to track objects through longer period of occlusions, while keeping the number of identity switches comparatively low. Extensive experimental evaluation demonstrates notable improvement in tracking accuracy and reliability, as evidenced by reduced identity switches and enhanced occlusion handling. These advancements not only contribute to the state of the art in object tracking but also open new avenues for future research and practical applications demanding high precision and reliability.
- Abstract(参考訳): 本研究では,オンライン複数物体追跡のための新しいトラッカーを提案する。
それぞれが特定の外観情報を表す複数の特徴モジュールを提供します。
衣料品の色,スタイル,ターゲット方向などの特徴を,ロバストな組込み抽出のためのReIDネットワークと組み合わせることで,オンライントラッキングの精度を大幅に向上させる。
さらに,より強力な検出器を組み込んだ後処理手法を提案し,トラッカーの性能をさらに向上させる。
実時間動作中に、IoU、方向、色、スタイル、およびReIDの特徴的類似性情報を含む関連する距離関数を追跡するための測定値を確立し、それぞれの距離を別々に計算する。
特徴関連距離関数の設計により、比較的低いIDスイッチ数を保ちながら、より長いオクルージョン期間を通して物体を追跡することができる。
広範囲な実験的評価は、アイデンティティスイッチの削減と閉塞処理の強化によって証明されたように、追跡精度と信頼性が顕著に向上したことを示している。
これらの進歩は、物体追跡の最先端だけでなく、高度な精度と信頼性を求める将来の研究や実用化のための新たな道を開いた。
関連論文リスト
- UniTrack: Differentiable Graph Representation Learning for Multi-Object Tracking [5.241700353040585]
UniTrackは、マルチオブジェクトトラッキング(MOT)を強化するために設計された、プラグアンドプレイグラフ理論の損失関数である。
最大で53%のIDスイッチが削減され、12%のIDF1が、挑戦的なベンチマークで改善され、SportsMOT上でのピークパフォーマンスは9.7%向上した。
論文 参考訳(メタデータ) (2026-02-04T20:44:16Z) - CADTrack: Learning Contextual Aggregation with Deformable Alignment for Robust RGBT Tracking [68.71826342377004]
RGB-Thermal (RGBT) トラッキングは、堅牢な全天候物体追跡のために可視および熱赤外モードを活用することを目的としている。
既存のRGBTトラッカーはモダリティの相違を解決するのに苦労している。
RGBT追跡のためのCADTrackと呼ばれる,変形可能なアライメントによるコンテキストアグリゲーション(Contextual Aggregation)を提案する。
論文 参考訳(メタデータ) (2025-11-22T08:10:02Z) - CAMELTrack: Context-Aware Multi-cue ExpLoitation for Online Multi-Object Tracking [68.24998698508344]
CAMELはコンテキスト対応型マルチキューExpLoitationのための新しいアソシエイトモジュールである。
エンド・ツー・エンドの検知・バイ・トラック方式とは異なり,本手法は軽量かつ高速にトレーニングが可能であり,外部のオフ・ザ・シェルフモデルを活用することができる。
提案するオンライントラッキングパイプラインであるCAMELTrackは,複数のトラッキングベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-05-02T13:26:23Z) - History-Aware Transformation of ReID Features for Multiple Object Tracking [17.15627396627977]
本稿では,ReID特徴量に対する履歴認識変換を用いて,より識別的な外観表現を実現することを提案する。
実験の結果,このトレーニングフリープロジェクションにより,機能のみのトラッカーが大幅に向上し,より優れたトラッカー性能が達成できることがわかった。
論文 参考訳(メタデータ) (2025-03-16T16:34:40Z) - When to Extract ReID Features: A Selective Approach for Improved Multiple Object Tracking [0.0]
ReID(Rettracting and matching Re-Identification)機能は、多くの最先端(SOTA)多重オブジェクト追跡(MOT)手法で使用されている。
本稿では,精度,モジュール性,実装容易性を保ちながら,特徴抽出のオーバーヘッドを最小限に抑えるための選択的アプローチについて検討する。
我々は、StrongSORTとDeep OC-SORTに適用することで、その効果を実証する。
論文 参考訳(メタデータ) (2024-09-10T16:14:46Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - MONCE Tracking Metrics: a comprehensive quantitative performance
evaluation methodology for object tracking [0.0]
本稿では、目標追跡モデル性能ベンチマークと、追跡モデル開発を駆動するための診断情報の両方を提供するMONCE(Multi-Object Non-Contiguous Entities)イメージトラッキングメトリクスのスイートを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:32:03Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Rethinking the competition between detection and ReID in Multi-Object
Tracking [44.59367033562385]
検出と識別の埋め込みを共同で学習するワンショットモデルは、マルチオブジェクトトラッキング(MOT)において大きな注目を集めている。
本稿では,タスク依存表現をよりよく学習するために,自己関係と相互関係を持つ新しい相互ネットワーク(REN)を提案する。
また,ID埋め込みの関連性を改善するために,意味レベルのミスアライメントを防止するスケールアウェア・アテンション・ネットワーク(SAAN)を導入する。
論文 参考訳(メタデータ) (2020-10-23T02:44:59Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。