論文の概要: Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark
- arxiv url: http://arxiv.org/abs/2105.02440v1
- Date: Thu, 6 May 2021 04:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:25:36.546627
- Title: Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark
- Title(参考訳): 群衆のドローンを検知、追跡、カウントする:ベンチマーク
- Authors: Longyin Wen, Dawei Du, Pengfei Zhu, Qinghua Hu, Qilong Wang, Liefeng
Bo, Siwei Lyu
- Abstract要約: DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
- 参考スコア(独自算出の注目度): 97.07865343576361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To promote the developments of object detection, tracking and counting
algorithms in drone-captured videos, we construct a benchmark with a new
drone-captured largescale dataset, named as DroneCrowd, formed by 112 video
clips with 33,600 HD frames in various scenarios. Notably, we annotate 20,800
people trajectories with 4.8 million heads and several video-level attributes.
Meanwhile, we design the Space-Time Neighbor-Aware Network (STNNet) as a strong
baseline to solve object detection, tracking and counting jointly in dense
crowds. STNNet is formed by the feature extraction module, followed by the
density map estimation heads, and localization and association subnets. To
exploit the context information of neighboring objects, we design the
neighboring context loss to guide the association subnet training, which
enforces consistent relative position of nearby objects in temporal domain.
Extensive experiments on our DroneCrowd dataset demonstrate that STNNet
performs favorably against the state-of-the-arts.
- Abstract(参考訳): ドローンで撮影されたビデオにおける物体検出,追跡,計数アルゴリズムの開発を促進するために,ドローンが収集した大規模データセットであるdronecrowdを,さまざまなシナリオで33,600のhdフレームを備えた112のビデオクリップで作成したベンチマークを構築した。
特に、20,800人のトラジェクトリに480万の頭といくつかのビデオレベルの属性を注釈付けしています。
一方,高密度群でオブジェクトの検出・追跡・カウントを行うための強力なベースラインとして,Space-Time Neighbor-Aware Network (STNNet) を設計する。
STNNetは特徴抽出モジュールによって形成され、次に密度マップ推定ヘッド、局所化および関連サブネットが続く。
隣接オブジェクトのコンテキスト情報を活用するために,隣接コンテキスト損失を設計し,関連サブネットトレーニングを誘導し,時間領域における近接オブジェクトの一貫性のある相対位置を強制する。
DroneCrowdデータセットの大規模な実験は、STNNetが最先端技術に対して良好に機能することを示した。
関連論文リスト
- DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - DroneAttention: Sparse Weighted Temporal Attention for Drone-Camera
Based Activity Recognition [2.705905918316948]
ドローン搭載カメラを用いた人間行動認識(HAR)は近年,コンピュータビジョン研究コミュニティから大きな関心を集めている。
本研究では, 疎サンプリングされたビデオフレームをグローバルに重み付けした時間的注意力を得るために, 新たにSparse Weighted Temporal Attention (SWTA) モジュールを提案する。
提案されたモデルでは、各データセットで72.76%、92.56%、78.86%の精度が得られた。
論文 参考訳(メタデータ) (2022-12-07T00:33:40Z) - Detecting and Tracking Small and Dense Moving Objects in Satellite
Videos: A Benchmark [30.078513715446196]
オブジェクトの検出と追跡を行うタスクに対して,豊富なアノテーションを付加した大規模衛星ビデオデータセットを構築した。
このデータセットは、ジリン1の衛星コンステレーションによって収集される。
衛星ビデオにおける物体の検出と追跡を行うための最初の公開ベンチマークを確立する。
論文 参考訳(メタデータ) (2021-11-25T08:01:41Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Benchmarking Deep Trackers on Aerial Videos [5.414308305392762]
本論文では,4つの空中データセットの深層学習手法に基づく10のトラッカーを比較した。
我々は,検出による追跡,識別相関フィルタ,シャムネットワーク,強化学習など,さまざまなアプローチを用いた上位パフォーマンストラッカを選択する。
本研究では, 地上映像と比べ, 航空データセットではトラッカーの性能が著しく悪くなることが示唆された。
論文 参考訳(メタデータ) (2021-03-24T01:45:19Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。