論文の概要: Dense Crowds Detection and Surveillance with Drones using Density Maps
- arxiv url: http://arxiv.org/abs/2003.08766v1
- Date: Tue, 3 Mar 2020 02:05:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-26 21:51:10.464777
- Title: Dense Crowds Detection and Surveillance with Drones using Density Maps
- Title(参考訳): 密度マップを用いたドローンによる高密度群衆の検出と監視
- Authors: Javier Gonzalez-Trejo, Diego Mercado-Ravell
- Abstract要約: 本稿では、ベイズ損失関数を訓練したVGG19を用いた密度マップ生成と、ResNet50-FPNをバックボーンとするFasterRCNNによる検出列数という、2つの異なる最先端手法をテストする。
本研究では,両手法が地上付近の群集において特に有意な検出・カウントを行うことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting and Counting people in a human crowd from a moving drone present
challenging problems that arisefrom the constant changing in the image
perspective andcamera angle. In this paper, we test two different
state-of-the-art approaches, density map generation with VGG19 trainedwith the
Bayes loss function and detect-then-count with FasterRCNN with ResNet50-FPN as
backbone, in order to comparetheir precision for counting and detecting people
in differentreal scenarios taken from a drone flight. We show empiricallythat
both proposed methodologies perform especially well fordetecting and counting
people in sparse crowds when thedrone is near the ground. Nevertheless, VGG19
provides betterprecision on both tasks while also being lighter than
FasterRCNN. Furthermore, VGG19 outperforms Faster RCNN whendealing with dense
crowds, proving to be more robust toscale variations and strong occlusions,
being more suitable forsurveillance applications using drones
- Abstract(参考訳): 移動中のドローンから人の群衆を検知し、カウントすることは、画像の視点やカメラの角度が一定に変化することから生じる問題である。
本稿では,ベイズ損失関数で訓練されたvgg19による密度マップ生成と,resnet50-fpnをバックボーンとするfasterrcnnによる検出-then-countの2つの手法をテストし,ドローン飛行で異なるシナリオの人物を計測・検出するための精度の比較を行った。
本研究では,両手法が地上付近の群集において特に有意な検出・カウントを行うことを示す。
しかしながら、VGG19はFasterRCNNよりも軽量でありながら、両方のタスクでより良い精度を提供する。
さらに、vgg19は、密集した群衆による死亡時のrcnnよりも高速で、より堅牢なトスケールのバリエーションと強い閉塞性を示し、ドローンを用いた監視用途に適している。
関連論文リスト
- Improving Small Drone Detection Through Multi-Scale Processing and Data Augmentation [2.522137108227868]
本研究では,中規模のYOLOv11オブジェクト検出モデルに基づくドローン検出手法を提案する。
そこで我々は,入力画像を全体およびセグメント化された部分の両方で処理し,その後の予測アグリゲーションで処理するマルチスケールアプローチを実装した。
提案されたアプローチは、2025年のInternational Joint Conference on Neural Networksで開かれた第8回WOSDETC Drone-vsBird Detection Grand Challengeでトップ3にランクインした。
論文 参考訳(メタデータ) (2025-04-27T20:06:55Z) - YOLOMG: Vision-based Drone-to-Drone Detection with Appearance and Pixel-Level Motion Fusion [9.810747004677474]
本稿では,複雑な環境下で小型ドローンを正確に識別する新しいエンドツーエンドフレームワークを提案する。
最初は、小さなドローンのモーション特性を捉えるために、動きの差分マップを作成する。
次に、この動き差分マップをバイモーダル融合モジュールを用いてRGB画像と組み合わせることで、ドローンの適応的な特徴学習を可能にする。
論文 参考訳(メタデータ) (2025-03-10T09:44:21Z) - DroBoost: An Intelligent Score and Model Boosting Method for Drone Detection [1.2564343689544843]
ドローン検出は、画像の可視性や品質が好ましくないような、困難な物体検出タスクである。
私たちの仕事は、いくつかの改善を組み合わせることで、以前のアプローチを改善します。
提案された技術は、Drone vs. Bird Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2024-06-30T20:49:56Z) - A Two-Dimensional Deep Network for RF-based Drone Detection and
Identification Towards Secure Coverage Extension [7.717171534776764]
時間領域情報と周波数領域情報の両方を含む生信号から2次元特徴を抽出するために,ショートタイムフーリエ変換を用いる。
次に、ResNet構造で構築された畳み込みニューラルネットワーク(CNN)を用いて、マルチクラス分類を実現する。
実験の結果,提案したResNet-STFTは,拡張データセット上でより精度が高く,より高速に収束できることがわかった。
論文 参考訳(メタデータ) (2023-08-26T15:43:39Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios [2.4378845585726903]
提案されたデータセットは、43k以上のアノテーションと、90degから90degの範囲でピッチまたはヨー角の4.0kの画像を含む261本のビデオをキャプチャした。
ドローンLAMSは、現在利用可能なドローンベースの顔検出データセットよりも、検出性能において大幅に改善された。
論文 参考訳(メタデータ) (2020-11-16T02:26:05Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。