論文の概要: Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2203.14360v1
- Date: Sun, 27 Mar 2022 17:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 14:56:54.282856
- Title: Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking
- Title(参考訳): 観測中心SORT:ロバスト多物体追跡のためのSORTの再考
- Authors: Jinkun Cao, Xinshuo Weng, Rawal Khirodkar, Jiangmiao Pang, Kris Kitani
- Abstract要約: 簡単な動きモデルにより、外観のような他の手段を使わずに、最先端のトラッキング性能が得られることを示す。
そこで我々は,提案手法を OC-SORT,Observatory-Centric SORT,略してOC-SORT と呼ぶ。
- 参考スコア(独自算出の注目度): 32.32109475782992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Object Tracking (MOT) has rapidly progressed with the development of
object detection and re-identification. However, motion modeling, which
facilitates object association by forecasting short-term trajectories with past
observations, has been relatively under-explored in recent years. Current
motion models in MOT typically assume that the object motion is linear in a
small time window and needs continuous observations, so these methods are
sensitive to occlusions and non-linear motion and require high frame-rate
videos. In this work, we show that a simple motion model can obtain
state-of-the-art tracking performance without other cues like appearance. We
emphasize the role of "observation" when recovering tracks from being lost and
reducing the error accumulated by linear motion models during the lost period.
We thus name the proposed method as Observation-Centric SORT, OC-SORT for
short. It remains simple, online, and real-time but improves robustness over
occlusion and non-linear motion. It achieves 63.2 and 62.1 HOTA on MOT17 and
MOT20, respectively, surpassing all published methods. It also sets new states
of the art on KITTI Pedestrian Tracking and DanceTrack where the object motion
is highly non-linear. The code and model are available at
https://github.com/noahcao/OC_SORT.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)は,物体検出と再同定の開発で急速に進展している。
しかし, 短期軌跡を過去の観測で予測し, 物体の関連性を高める動きのモデリングは近年, 比較的不十分に行われている。
現在のMOTの運動モデルでは、物体の動きは小さな時間窓で線形であり、連続的な観察が必要であると仮定しているため、これらの手法は閉塞や非線形運動に敏感であり、高いフレームレート動画を必要とする。
そこで本研究では,単純な動作モデルにより,外観のような他の手段を使わずに,最先端のトラッキング性能が得られることを示す。
我々は,トラックの喪失から回復する際の「観測」の役割を強調し,損失期間中に線形運動モデルによって蓄積される誤差を低減する。
そこで,提案手法をOC-SORT, OC-SORTと呼ぶ。
シンプルでオンラインでリアルタイムだが、オクルージョンや非線形動作よりも堅牢性を向上させる。
MOT17 と MOT20 では 63.2 と 62.1 HOTA をそれぞれ達成し、公表されたすべての方法を上回る。
また、KITTI Pedestrian Tracking and DanceTrackでは、物体の動きが非線形である新しい状態も設定している。
コードとモデルはhttps://github.com/noahcao/oc_sortで入手できる。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。