論文の概要: MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2303.10404v2
- Date: Mon, 17 Apr 2023 03:39:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 20:34:14.467706
- Title: MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking
- Title(参考訳): MotionTrack: 複数物体追跡のためのロバストな短期・長期動作学習
- Authors: Zheng Qin and Sanping Zhou and Le Wang and Jinghai Duan and Gang Hua
and Wei Tang
- Abstract要約: 本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
- 参考スコア(独自算出の注目度): 56.92165669843006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The main challenge of Multi-Object Tracking~(MOT) lies in maintaining a
continuous trajectory for each target. Existing methods often learn reliable
motion patterns to match the same target between adjacent frames and
discriminative appearance features to re-identify the lost targets after a long
period. However, the reliability of motion prediction and the discriminability
of appearances can be easily hurt by dense crowds and extreme occlusions in the
tracking process. In this paper, we propose a simple yet effective multi-object
tracker, i.e., MotionTrack, which learns robust short-term and long-term
motions in a unified framework to associate trajectories from a short to long
range. For dense crowds, we design a novel Interaction Module to learn
interaction-aware motions from short-term trajectories, which can estimate the
complex movement of each target. For extreme occlusions, we build a novel
Refind Module to learn reliable long-term motions from the target's history
trajectory, which can link the interrupted trajectory with its corresponding
detection. Our Interaction Module and Refind Module are embedded in the
well-known tracking-by-detection paradigm, which can work in tandem to maintain
superior performance. Extensive experimental results on MOT17 and MOT20
datasets demonstrate the superiority of our approach in challenging scenarios,
and it achieves state-of-the-art performances at various MOT metrics.
- Abstract(参考訳): マルチオブジェクトトラッキング(mot)の主な課題は、各ターゲットに対する継続的な軌道を維持することである。
既存の手法では、隣接するフレーム間の同一のターゲットと識別的外観の特徴を一致させる信頼性のある動作パターンを学習し、長い時間後に失われたターゲットを再識別する。
しかし、動き予測の信頼性や外観の識別性は、密集した群集や追跡過程における極端な閉塞によって容易に損なわれる。
本稿では,短距離から長距離のトラジェクタを関連付ける統一フレームワークにおいて,ロバストな短期動作と長期動作を学習する,単純かつ効果的なマルチオブジェクトトラッカであるmotiontrackを提案する。
密集した群れに対して, 目標の複雑な動きを推定できる短時間の軌跡から対話認識動作を学習する新しいインタラクションモジュールを設計した。
極限咬合に対しては, 目標の履歴軌跡から信頼性の高い長期動作を学習し, 遮断された軌道と対応する検出を関連付けることのできる, 新たな改良モジュールを構築した。
私たちのInteraction ModuleとRefind Moduleは、よく知られたトラッキング・バイ・検出パラダイムに組み込まれています。
MOT17とMOT20データセットの大規模な実験結果は、挑戦的なシナリオにおけるアプローチの優位性を示し、様々なMOTメトリクスで最先端のパフォーマンスを達成する。
関連論文リスト
- ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MONCE Tracking Metrics: a comprehensive quantitative performance
evaluation methodology for object tracking [0.0]
本稿では、目標追跡モデル性能ベンチマークと、追跡モデル開発を駆動するための診断情報の両方を提供するMONCE(Multi-Object Non-Contiguous Entities)イメージトラッキングメトリクスのスイートを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:32:03Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。