論文の概要: History-Aware Transformation of ReID Features for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2503.12562v1
- Date: Sun, 16 Mar 2025 16:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:54.928831
- Title: History-Aware Transformation of ReID Features for Multiple Object Tracking
- Title(参考訳): 複数物体追跡のためのReID特徴の履歴認識変換
- Authors: Ruopeng Gao, Yuyao Wang, Chunxu Liu, Limin Wang,
- Abstract要約: 本稿では,ReID特徴量に対する履歴認識変換を用いて,より識別的な外観表現を実現することを提案する。
実験の結果,このトレーニングフリープロジェクションにより,機能のみのトラッカーが大幅に向上し,より優れたトラッカー性能が達成できることがわかった。
- 参考スコア(独自算出の注目度): 17.15627396627977
- License:
- Abstract: The aim of multiple object tracking (MOT) is to detect all objects in a video and bind them into multiple trajectories. Generally, this process is carried out in two steps: detecting objects and associating them across frames based on various cues and metrics. Many studies and applications adopt object appearance, also known as re-identification (ReID) features, for target matching through straightforward similarity calculation. However, we argue that this practice is overly naive and thus overlooks the unique characteristics of MOT tasks. Unlike regular re-identification tasks that strive to distinguish all potential targets in a general representation, multi-object tracking typically immerses itself in differentiating similar targets within the same video sequence. Therefore, we believe that seeking a more suitable feature representation space based on the different sample distributions of each sequence will enhance tracking performance. In this paper, we propose using history-aware transformations on ReID features to achieve more discriminative appearance representations. Specifically, we treat historical trajectory features as conditions and employ a tailored Fisher Linear Discriminant (FLD) to find a spatial projection matrix that maximizes the differentiation between different trajectories. Our extensive experiments reveal that this training-free projection can significantly boost feature-only trackers to achieve competitive, even superior tracking performance compared to state-of-the-art methods while also demonstrating impressive zero-shot transfer capabilities. This demonstrates the effectiveness of our proposal and further encourages future investigation into the importance and customization of ReID models in multiple object tracking. The code will be released at https://github.com/HELLORPG/HATReID-MOT.
- Abstract(参考訳): マルチオブジェクトトラッキング(MOT)の目的は、ビデオ内のすべてのオブジェクトを検出し、それらを複数のトラジェクトリにバインドすることである。
一般に、このプロセスは2つのステップで実行され、オブジェクトを検出し、様々なキューとメトリクスに基づいてフレーム間で関連付ける。
多くの研究や応用において、単純な類似性計算によるターゲットマッチングのためにオブジェクトの外観(ReID(re-identification)機能)が採用されている。
しかし、このプラクティスは過度に単純であり、MOTタスクのユニークな特徴を見落としていると論じる。
一般的な表現における全ての潜在的なターゲットを識別しようとする通常の再識別タスクとは異なり、マルチオブジェクト追跡は、通常、同じビデオシーケンス内で同様のターゲットを識別するために没入する。
そこで本研究では,各シーケンスの異なるサンプル分布に基づいて,より適切な特徴表現空間を求めることにより,トラッキング性能が向上すると考えている。
本稿では,ReID特徴量に対する履歴認識変換を用いて,より識別的な外観表現を実現することを提案する。
具体的には、歴史的軌跡の特徴を条件として扱い、異なる軌跡間の微分を最大化する空間投影行列を見つけるために、調整されたフィッシャー線形判別器(FLD)を用いる。
我々の広範な実験により、このトレーニングフリープロジェクションは、最先端の手法と比較して、競争力のある、さらには優れたトラッキング性能を達成するために、機能のみのトラッカーを著しく向上させることができる一方で、印象的なゼロショット転送機能も示している。
提案手法の有効性を実証し,複数のオブジェクト追跡におけるReIDモデルの重要性とカスタマイズについて,今後の研究を奨励する。
コードはhttps://github.com/HELLORPG/HATReID-MOT.comで公開される。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - FeatureSORT: Essential Features for Effective Tracking [0.0]
本稿では,オンライン複数オブジェクト追跡のための新しいトラッカーについて紹介する。
衣料品の色やスタイル,対象方向など,異なる外観特徴を統合することで,オンライントラッキングの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-05T04:37:39Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking [20.66906781151]
マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-28T18:12:39Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。