論文の概要: UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation
- arxiv url: http://arxiv.org/abs/2312.08952v2
- Date: Thu, 11 Jan 2024 14:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 02:55:48.218526
- Title: UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation
- Title(参考訳): UCMCTrack: 一様カメラモーション補償による多目的追跡
- Authors: Kefu Yi, Kai Luo, Xiaolei Luo, Jiangui Huang, Hao Wu, Rongdong Hu, Wei
Hao
- Abstract要約: カメラの動きに頑健な新しいモーションモデルベースのトラッカーであるUCMCTrackを紹介する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
MOT17、MOT20、DanceTrack、KITTIなど、さまざまな課題のあるデータセットで最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 9.333052173412158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-object tracking (MOT) in video sequences remains a challenging task,
especially in scenarios with significant camera movements. This is because
targets can drift considerably on the image plane, leading to erroneous
tracking outcomes. Addressing such challenges typically requires supplementary
appearance cues or Camera Motion Compensation (CMC). While these strategies are
effective, they also introduce a considerable computational burden, posing
challenges for real-time MOT. In response to this, we introduce UCMCTrack, a
novel motion model-based tracker robust to camera movements. Unlike
conventional CMC that computes compensation parameters frame-by-frame,
UCMCTrack consistently applies the same compensation parameters throughout a
video sequence. It employs a Kalman filter on the ground plane and introduces
the Mapped Mahalanobis Distance (MMD) as an alternative to the traditional
Intersection over Union (IoU) distance measure. By leveraging projected
probability distributions on the ground plane, our approach efficiently
captures motion patterns and adeptly manages uncertainties introduced by
homography projections. Remarkably, UCMCTrack, relying solely on motion cues,
achieves state-of-the-art performance across a variety of challenging datasets,
including MOT17, MOT20, DanceTrack and KITTI. More details and code are
available at https://github.com/corfyi/UCMCTrack
- Abstract(参考訳): ビデオシーケンスにおけるマルチオブジェクトトラッキング(MOT)は、特にカメラの動きが著しいシナリオにおいて、依然として困難な課題である。
これは、ターゲットが画像平面上でかなりドリフトし、誤った追跡結果につながるためである。
このような課題に対処するには、通常補足的な外観の手がかりまたはカメラモーション補償(CMC)が必要である。
これらの戦略は有効であるが、リアルタイムMOTの課題を提起する、かなりの計算負担も伴う。
そこで,本研究では,カメラの動きにロバストな新しいモーションモデルベースのトラッカーucmctrackを提案する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
基底平面上のカルマンフィルタを使用し、伝統的な結合距離測度(iou)の代替としてマッピングされたマハラノビス距離(mmd)を導入する。
提案手法は, 平面上の予測された確率分布を利用して, 動きパターンを効率的に捕捉し, ホモグラフィー投影による不確かさを適切に管理する。
注目すべきなのは、UCMCTrackはモーションキューのみに依存しており、MOT17、MOT20、DanceTrack、KITTIなど、さまざまな困難なデータセットで最先端のパフォーマンスを実現していることだ。
詳細とコードはhttps://github.com/corfyi/UCMCTrackで確認できる。
関連論文リスト
- Multi-Moving Camera Pedestrian Tracking with a New Dataset and Global
Link Model [4.915621537035868]
我々は,マルチターゲットマルチ移動カメラ(MTMC)の追跡に焦点を合わせ,研究コミュニティから注目が集まっている。
既存のほとんどのSCTトラッカーが直面するアイデンティティスイッチの共通問題に対処するために、Linkerと呼ばれる軽量な外見のないグローバルリンクモデルを提案する。
同一ターゲットの2つの解離トラックレットを同一カメラ内の完全な軌跡に関連付けることにより、識別スイッチを緩和する。
論文 参考訳(メタデータ) (2023-12-18T09:11:28Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Tracking Everything Everywhere All at Once [111.00807055441028]
ビデオシーケンスから高密度及び長距離運動を推定するための新しいテスト時間最適化法を提案する。
我々はOmniMotionと呼ばれる完全で一貫した動作表現を提案する。
提案手法は,従来の最先端手法よりも定量的にも定性的にも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-06-08T17:59:29Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - A Deep Moving-camera Background Model [5.564705758320338]
ビデオ解析ビデオにおける移動カメラ背景モデル(MCBM)の学習手法を提案する。
DeepMCBMは関節アライメントに関連する問題を排除し、最先端の結果を得る。
我々は、DeepMCBMのユーティリティを、他のメソッドの範囲を超えて、様々なビデオでデモする。
論文 参考訳(メタデータ) (2022-09-16T13:36:54Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。