論文の概要: Tracking Pedestrian Heads in Dense Crowd
- arxiv url: http://arxiv.org/abs/2103.13516v1
- Date: Wed, 24 Mar 2021 22:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 01:30:37.570204
- Title: Tracking Pedestrian Heads in Dense Crowd
- Title(参考訳): 群衆の歩行者の頭部追跡
- Authors: Ramana Sundararaman, Cedric De Almeida Braga, Eric Marchand, Julien
Pettre
- Abstract要約: クラウド・オブ・ヘッドス・データセット(CroHD)による頭部追跡の活性化を提案する。
CroHDは11,463フレームの9つのシーケンスで構成され、2,276,838ヘッドと5,230トラックが多様なシーンにアノテートされています。
また,混み合った場面における頭部検出のために設計された頭部検出装置headhunterを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking humans in crowded video sequences is an important constituent of
visual scene understanding. Increasing crowd density challenges visibility of
humans, limiting the scalability of existing pedestrian trackers to higher
crowd densities. For that reason, we propose to revitalize head tracking with
Crowd of Heads Dataset (CroHD), consisting of 9 sequences of 11,463 frames with
over 2,276,838 heads and 5,230 tracks annotated in diverse scenes. For
evaluation, we proposed a new metric, IDEucl, to measure an algorithm's
efficacy in preserving a unique identity for the longest stretch in image
coordinate space, thus building a correspondence between pedestrian crowd
motion and the performance of a tracking algorithm. Moreover, we also propose a
new head detector, HeadHunter, which is designed for small head detection in
crowded scenes. We extend HeadHunter with a Particle Filter and a color
histogram based re-identification module for head tracking. To establish this
as a strong baseline, we compare our tracker with existing state-of-the-art
pedestrian trackers on CroHD and demonstrate superiority, especially in
identity preserving tracking metrics. With a light-weight head detector and a
tracker which is efficient at identity preservation, we believe our
contributions will serve useful in advancement of pedestrian tracking in dense
crowds.
- Abstract(参考訳): 混み合ったビデオシーケンスで人間を追跡することは、視覚的シーン理解の重要な構成要素である。
人口密度の増大は、人間の可視性に挑戦し、既存の歩行者追跡装置のスケーラビリティを高い群衆密度に制限する。
そこで我々は,11,463フレームの9つのシーケンスと2,276,838以上のヘッド,5,230トラックからなる,クラウド・オブ・ヘッドス・データセット(CroHD)によるヘッドトラッキングの活性化を提案する。
評価のために,画像座標空間の長い距離における一意的なアイデンティティを保持するアルゴリズムの有効性を測定するための新しい指標 IDEucl を提案し,歩行者の群集の動きと追跡アルゴリズムの性能との対応性を構築した。
また,混み合ったシーンで小さな頭部検出を行うために,新しいヘッド検出器HeadHunterを提案する。
HeadHunterをパーティクルフィルタとカラーヒストグラムに基づくヘッドトラッキングのための再識別モジュールで拡張する。
これを強力なベースラインとして確立するために、我々はCroHD上の既存の歩行者トラッカーと比較し、特にアイデンティティ保存追跡指標において優位性を示す。
身元維持に効率的な軽量頭部検出装置と追跡装置を備えることで、我々の貢献は密集した群衆における歩行者追跡の進歩に役立つと信じている。
関連論文リスト
- DynamicTrack: Advancing Gigapixel Tracking in Crowded Scenes [29.98165509387273]
混雑したシーンにおけるギガピクセル追跡問題に対処するために設計された動的トラッキングフレームワークであるDynamicTrackを紹介する。
特に,コントラスト学習を利用して歩行者の頭部と身体を共同で検出する動的検出器を提案する。
論文 参考訳(メタデータ) (2024-07-26T10:08:01Z) - DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - OneTracker: Unifying Visual Object Tracking with Foundation Models and Efficient Tuning [33.521077115333696]
我々は、OneTrackerと呼ばれる様々なトラッキングタスクを統合するための一般的なフレームワークを提案する。
OneTrackerは最初に、Foundation Trackerと呼ばれるRGBトラッカーで大規模な事前トレーニングを行う。
次に、他のモダリティ情報をプロンプトとみなし、Foundation Tracker上にPrompt Trackerを構築する。
論文 参考訳(メタデータ) (2024-03-14T17:59:13Z) - CoTracker: It is Better to Track Together [70.63040730154984]
CoTrackerは、長いビデオシーケンスで多数の2Dポイントを追跡するトランスフォーマーベースのモデルである。
関節トラッキングはトラッキング精度とロバスト性を大幅に改善し、CoTrackerはカメラビューの外側に隠された点や点を追跡することができる。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - Handling Heavy Occlusion in Dense Crowd Tracking by Focusing on the
Heads [29.80438304958294]
本研究では,歩行者のリコールと精度向上を図るために,アンカーレス方式のジョイントヘッドとボディ検出器を設計した。
本モデルでは,訓練用歩行者検出のための統計的頭部比に関する情報は不要である。
このモデルを,MOT20,Crowd Human,HT21データセットなど,さまざまなデータセットに対する広範な実験により評価する。
論文 参考訳(メタデータ) (2023-04-16T06:00:35Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - STCrowd: A Multimodal Dataset for Pedestrian Perception in Crowded
Scenes [78.95447086305381]
3D空間における歩行者の正確な検出と追跡は、回転、ポーズ、スケールの大きなバリエーションのために困難である。
既存のベンチマークは2Dアノテーションのみを提供するか、あるいは低密度の歩行者分布を持つ限定的な3Dアノテーションを持つ。
混み合ったシナリオにおける歩行者認識アルゴリズムをよりよく評価するために,大規模なマルチモーダルデータセットSTCrowdを導入する。
論文 参考訳(メタデータ) (2022-04-03T08:26:07Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。