論文の概要: MOBDrone: a Drone Video Dataset for Man OverBoard Rescue
- arxiv url: http://arxiv.org/abs/2203.07973v1
- Date: Tue, 15 Mar 2022 15:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 21:22:21.373527
- Title: MOBDrone: a Drone Video Dataset for Man OverBoard Rescue
- Title(参考訳): MOBDrone:人間を救うためのドローンビデオデータセット
- Authors: Donato Cafarelli and Luca Ciampi and Lucia Vadicamo and Claudio
Gennaro and Andrea Berton and Marco Paterni and Chiara Benvenuti and Mirko
Passera and Fabrizio Falchi
- Abstract要約: 我々は,海洋環境における125万以上のドローンビュー画像の収集であるMOBDroneベンチマークを,いくつかの条件下でリリースした。
私たちは180K以上のオブジェクトを手動でアノテートしました。
我々はMOBDroneデータに基づくいくつかの最先端物体検出器の性能解析を行い、さらなる研究のベースラインとして機能する。
- 参考スコア(独自算出の注目度): 4.393945242867356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Unmanned Aerial Vehicles (UAV) equipped with cameras can play an
essential role in speeding up the identification and rescue of people who have
fallen overboard, i.e., man overboard (MOB). To this end, Artificial
Intelligence techniques can be leveraged for the automatic understanding of
visual data acquired from drones. However, detecting people at sea in aerial
imagery is challenging primarily due to the lack of specialized annotated
datasets for training and testing detectors for this task. To fill this gap, we
introduce and publicly release the MOBDrone benchmark, a collection of more
than 125K drone-view images in a marine environment under several conditions,
such as different altitudes, camera shooting angles, and illumination. We
manually annotated more than 180K objects, of which about 113K man overboard,
precisely localizing them with bounding boxes. Moreover, we conduct a thorough
performance analysis of several state-of-the-art object detectors on the
MOBDrone data, serving as baselines for further research.
- Abstract(参考訳): カメラを装備した現代の無人航空機(UAV)は、オーバーボード(MOB)で倒れた人々の識別と救助をスピードアップする上で重要な役割を担っている。
この目的のために、ドローンから取得した視覚データの自動理解に人工知能技術を活用することができる。
しかし、航空画像における海中人検出は、主に、このタスクのための訓練とテストのための特別な注釈付きデータセットが欠如しているため、困難である。
このギャップを埋めるために、異なる高度、カメラの撮影角度、照明などの条件下で、海洋環境下で125万以上のドローンビュー画像の収集であるMOBDroneベンチマークを導入、公開する。
手動で180万以上のオブジェクトに注釈を付け、そのうち約1万3千人がオーバーボードし、バウンディングボックスで正確にローカライズしました。
さらに,MOBDroneデータに基づくいくつかの最先端物体検出器の性能解析を行い,さらなる研究の基盤となる。
関連論文リスト
- Drone-type-Set: Drone types detection benchmark for drone detection and tracking [0.6294091730968154]
本稿では,認識された物体検出モデルとの比較とともに,各種ドローンのデータセットを提供する。
異なるモデルの実験結果と各手法の記載が提供される。
論文 参考訳(メタデータ) (2024-05-16T18:56:46Z) - Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - DronePose: The identification, segmentation, and orientation detection
of drones via neural networks [3.161871054978445]
飛行中のドローンを完全に特徴付けるために,決定木とアンサンブル構造を用いたCNNを提案する。
我々のシステムは、ドローンの種類、方向(ピッチ、ロール、ヨー)を決定し、異なる身体部位を分類するためにセグメンテーションを行う。
また,高精度にラベル付けされた写真リアリスティックトレーニングデータを高速に生成するためのコンピュータモデルも提供する。
論文 参考訳(メタデータ) (2021-12-10T12:34:53Z) - Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios [2.4378845585726903]
提案されたデータセットは、43k以上のアノテーションと、90degから90degの範囲でピッチまたはヨー角の4.0kの画像を含む261本のビデオをキャプチャした。
ドローンLAMSは、現在利用可能なドローンベースの顔検出データセットよりも、検出性能において大幅に改善された。
論文 参考訳(メタデータ) (2020-11-16T02:26:05Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。