論文の概要: Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios
- arxiv url: http://arxiv.org/abs/2011.07689v2
- Date: Sun, 10 Oct 2021 08:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:41:38.520139
- Title: Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios
- Title(参考訳): drone lams: 大きな角度と多くのシナリオを持つ、ドローンベースの顔検出データセット
- Authors: Yi Luo (1), Siyi Chen (2), X.-G. Ma (2) ((1) School of Energy and
Environment, Southeast University, Nanjing, China (2) International Institute
for Urban Systems Engineering, Southeast University, Nanjing, China)
- Abstract要約: 提案されたデータセットは、43k以上のアノテーションと、90degから90degの範囲でピッチまたはヨー角の4.0kの画像を含む261本のビデオをキャプチャした。
ドローンLAMSは、現在利用可能なドローンベースの顔検出データセットよりも、検出性能において大幅に改善された。
- 参考スコア(独自算出の注目度): 2.4378845585726903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presented a new drone-based face detection dataset Drone LAMS in
order to solve issues of low performance of drone-based face detection in
scenarios such as large angles which was a predominant working condition when a
drone flies high. The proposed dataset captured images from 261 videos with
over 43k annotations and 4.0k images with pitch or yaw angle in the range of
-90{\deg} to 90{\deg}. Drone LAMS showed significant improvement over currently
available drone-based face detection datasets in terms of detection
performance, especially with large pitch and yaw angle. Detailed analysis of
how key factors, such as duplication rate, annotation method, etc., impact
dataset performance was also provided to facilitate further usage of a drone on
face detection.
- Abstract(参考訳): この研究は、ドローンが高高度を飛行する際の作業条件である大角度などのシナリオにおける、ドローンベースの顔検出の低パフォーマンスの問題を解決するために、新しいドローンベースの顔検出データセットである。
提案するデータセットは,-90{\deg} から 90{\deg} の範囲で,43k 以上のアノテーションと 4.0k の画像を持つ 261 ビデオから画像を取り込んだ。
ドローンラムは、現在利用可能なドローンベースの顔検出データセットよりも、特に大きなピッチとヨーアングルで検出性能が大幅に向上した。
また, 顔検出におけるドローンのさらなる利用を促進するため, 重複率, アノテーション法などの重要な要因, 影響データセットのパフォーマンスに関する詳細な分析を行った。
関連論文リスト
- Drone Detection and Tracking with YOLO and a Rule-based Method [0.0]
公共空間におけるドローンの活動量の増加は、プライバシー保護と安全のために規制措置を必要とする。
検出タスクは通常、注釈付き画像データセットに基づいてトレーニングされたディープラーニングモデルによって自動化され、実行される。
本稿は、以前の研究に基づいて、すでに公開されたオープンソースデータセットを拡張します。
検出モデルは単一の画像入力に基づいており、単純なクロスコリレーションベースのトラッカーを用いて検出損失を低減し、ビデオのトラッキング性能を向上させる。
論文 参考訳(メタデータ) (2025-02-07T19:53:10Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - MOBDrone: a Drone Video Dataset for Man OverBoard Rescue [4.393945242867356]
我々は,海洋環境における125万以上のドローンビュー画像の収集であるMOBDroneベンチマークを,いくつかの条件下でリリースした。
私たちは180K以上のオブジェクトを手動でアノテートしました。
我々はMOBDroneデータに基づくいくつかの最先端物体検出器の性能解析を行い、さらなる研究のベースラインとして機能する。
論文 参考訳(メタデータ) (2022-03-15T15:02:23Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - Dense Crowds Detection and Surveillance with Drones using Density Maps [0.0]
本稿では、ベイズ損失関数を訓練したVGG19を用いた密度マップ生成と、ResNet50-FPNをバックボーンとするFasterRCNNによる検出列数という、2つの異なる最先端手法をテストする。
本研究では,両手法が地上付近の群集において特に有意な検出・カウントを行うことを示す。
論文 参考訳(メタデータ) (2020-03-03T02:05:47Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。