論文の概要: FACT: Feature Adaptive Continual-learning Tracker for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2409.07904v1
- Date: Thu, 12 Sep 2024 10:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 16:58:31.297772
- Title: FACT: Feature Adaptive Continual-learning Tracker for Multiple Object Tracking
- Title(参考訳): FACT:複数物体追跡のための特徴適応連続学習トラッカー
- Authors: Rongzihan Song, Zhenyu Weng, Huiping Zhuang, Jinchang Ren, Yongming Chen, Zhiping Lin,
- Abstract要約: 我々は、FACT(Feature Adaptive Continual-learning Tracker)と呼ばれる新しいMOTフレームワークを提案する。
FACTは、過去のトラッキング情報をすべて活用して、ターゲットに対するリアルタイムトラッキングと機能学習を可能にする。
我々は、このフレームワークが様々な最先端の機能ベースのトラッカーと統合できることを実証した。
- 参考スコア(独自算出の注目度): 22.53374351982883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple object tracking (MOT) involves identifying multiple targets and assigning them corresponding IDs within a video sequence, where occlusions are often encountered. Recent methods address occlusions using appearance cues through online learning techniques to improve adaptivity or offline learning techniques to utilize temporal information from videos. However, most existing online learning-based MOT methods are unable to learn from all past tracking information to improve adaptivity on long-term occlusions while maintaining real-time tracking speed. On the other hand, temporal information-based offline learning methods maintain a long-term memory to store past tracking information, but this approach restricts them to use only local past information during tracking. To address these challenges, we propose a new MOT framework called the Feature Adaptive Continual-learning Tracker (FACT), which enables real-time tracking and feature learning for targets by utilizing all past tracking information. We demonstrate that the framework can be integrated with various state-of-the-art feature-based trackers, thereby improving their tracking ability. Specifically, we develop the feature adaptive continual-learning (FAC) module, a neural network that can be trained online to learn features adaptively using all past tracking information during tracking. Moreover, we also introduce a two-stage association module specifically designed for the proposed continual learning-based tracking. Extensive experiment results demonstrate that the proposed method achieves state-of-the-art online tracking performance on MOT17 and MOT20 benchmarks. The code will be released upon acceptance.
- Abstract(参考訳): 複数のオブジェクト追跡(MOT)は、複数のターゲットを特定し、それに対応するIDをビデオシーケンス内に割り当てる。
近年,映像の時間的情報を活用するための適応性向上やオフライン学習技術向上のために,オンライン学習技術による外見的手がかりを用いたオクルージョンに対処する手法が提案されている。
しかし,既存のオンライン学習ベースのMOT手法では,全ての過去の追跡情報から学習することができず,リアルタイム追跡速度を維持しながら,長期閉塞に対する適応性を向上させることができる。
一方、時間的情報に基づくオフライン学習手法は、過去の追跡情報を記憶するための長期記憶を維持しているが、この手法は追跡中にのみローカルな過去の情報を使用することを制限している。
これらの課題に対処するため、過去のトラッキング情報をすべて活用して、ターゲットに対するリアルタイムトラッキングと機能学習を可能にする、FACT(Feature Adaptive Continual-learning Tracker)と呼ばれる新しいMOTフレームワークを提案する。
このフレームワークは、様々な最先端の機能ベースのトラッカーと統合することができ、トラッキング能力を向上させることができる。
具体的には、トラッキング中のすべての過去の追跡情報を用いて、特徴を適応的に学習するためのオンライントレーニングが可能なニューラルネットワークである、機能適応型連続学習(FAC)モジュールを開発する。
さらに,提案する連続学習に基づくトラッキングに特化して設計された2段階アソシエイトモジュールについても紹介する。
提案手法は,MOT17およびMOT20ベンチマーク上で,最先端のオンライントラッキング性能を実現することを実証した。
コードは受理時にリリースされます。
関連論文リスト
- FeatureSORT: Essential Features for Effective Tracking [0.0]
本稿では,オンライン複数オブジェクト追跡のための新しいトラッカーについて紹介する。
衣料品の色やスタイル,対象方向など,異なる外観特徴を統合することで,オンライントラッキングの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-05T04:37:39Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking [137.26381337333552]
本研究では,十分なトレーニングデータを合成できるCrop-Transform-Paste演算を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカーは人間のアノテーションなしで日常的に訓練することができる。
論文 参考訳(メタデータ) (2021-06-21T07:40:34Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。