論文の概要: A Dataset of Stationary, Fixed-wing Aircraft on a Collision Course for
Vision-Based Sense and Avoid
- arxiv url: http://arxiv.org/abs/2112.02735v1
- Date: Mon, 6 Dec 2021 01:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 08:01:58.118780
- Title: A Dataset of Stationary, Fixed-wing Aircraft on a Collision Course for
Vision-Based Sense and Avoid
- Title(参考訳): 視覚感覚・回避のための衝突コースにおける固定翼航空機のデータセット
- Authors: Jasmin Martin, Jenna Riseley and Jason J. Ford
- Abstract要約: 本稿では,視覚に基づく航空機検出のためのデータセットを提案する。
このデータセットは、静止した地上カメラに近づく固定翼機の55,521枚の画像を含む15の画像シーケンスで構成されている。
我々の知る限り、これは観測者との衝突コースで中型固定翼機を研究するための最初の公開データセットである。
- 参考スコア(独自算出の注目度): 0.6445605125467572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emerging global market for unmanned aerial vehicle (UAV) services is
anticipated to reach USD 58.4 billion by 2026, spurring significant efforts to
safely integrate routine UAV operations into the national airspace in a manner
that they do not compromise the existing safety levels. The commercial use of
UAVs would be enhanced by an ability to sense and avoid potential mid-air
collision threats however research in this field is hindered by the lack of
available datasets as they are expensive and technically complex to capture. In
this paper we present a dataset for vision based aircraft detection. The
dataset consists of 15 image sequences containing 55,521 images of a fixed-wing
aircraft approaching a stationary, grounded camera. Ground truth labels and a
performance benchmark are also provided. To our knowledge, this is the first
public dataset for studying medium sized, fixed-wing aircraft on a collision
course with the observer. The full dataset and ground truth labels are publicly
available at https://qcr.github.io/dataset/aircraft-collision-course/.
- Abstract(参考訳): 無人航空機(UAV)の新興グローバル市場は、2026年までに584億米ドルに達すると予想され、既存の安全レベルを損なわないように、定期的なUAVの運用を国家の空域に安全に統合するための重要な取り組みを引き起こした。
UAVの商業的利用は、潜在的な空中衝突の脅威を検知し回避する能力によって強化されるが、この分野での研究は、高価で技術的に複雑であるため、利用可能なデータセットの不足によって妨げられる。
本稿では,視覚に基づく航空機検出のためのデータセットを提案する。
このデータセットは、静止した地上カメラに近づく固定翼機の55,521枚の画像を含む15の画像シーケンスで構成されている。
ground truthラベルとパフォーマンスベンチマークも提供されている。
我々の知る限り、これは観測者との衝突コースで中型固定翼機を研究するための最初の公開データセットである。
データセットと地上の真実ラベルはhttps://qcr.github.io/dataset/aircraft-collision-course/で公開されている。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - MMAUD: A Comprehensive Multi-Modal Anti-UAV Dataset for Modern Miniature
Drone Threats [37.981623262267036]
MMAUDは、ドローン検出、UAV型分類、軌道推定に焦点を当てて、現代の脅威検出手法における重要なギャップに対処する。
これは、熱とRGBを使用して特定のベタージュポイントでキャプチャされたデータセットよりも忠実度の高い実世界のシナリオに対処するための、ユニークな頭上の空中検出を提供する。
提案するモダリティは費用対効果が高く適応性が高いため,UAV脅威検出ツールの実験と実装が可能である。
論文 参考訳(メタデータ) (2024-02-06T04:57:07Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Segmentation of Drone Collision Hazards in Airborne RADAR Point Clouds
Using PointNet [0.7067443325368975]
統合のための重要な前提条件は、安全な運用を確保するために、状況認識を増強したUAVを装備することである。
本研究は,複数の衝突リスクを同時に識別するために,レーダ技術を活用した航空点雲のエンドツーエンドセマンティックセマンティックセマンティックセグメンテーションを実現する。
我々の知る限り、これは空中における複数の衝突脅威の同時識別に対処する最初のアプローチであり、94%の精度を達成する。
論文 参考訳(メタデータ) (2023-11-06T16:04:58Z) - Evidential Detection and Tracking Collaboration: New Problem, Benchmark
and Algorithm for Robust Anti-UAV System [56.51247807483176]
無人航空機(UAV)は輸送、監視、軍事など多くの地域で広く使われている。
従来は、UAVの先行情報が常に提供されていた追跡問題として、このようなアンチUAVタスクを単純化していた。
本稿では,従来のUAV情報を含まない複雑な場面において,UAVの認識を特徴とする新しい実用的対UAV問題を初めて定式化する。
論文 参考訳(メタデータ) (2023-06-27T19:30:23Z) - AirTrack: Onboard Deep Learning Framework for Long-Range Aircraft
Detection and Tracking [3.3773749296727535]
AirTrackは、sUASシステムのサイズ、重量、電力制約を尊重するリアルタイムの視覚のみの検出および追跡フレームワークである。
AirTrackは、Amazon Airborne Object Tracking(AOT)で最先端のアートベースラインを上回ります。
実験による評価から,本システムでは,最大で700mまでの95%以上をトラックできる可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-26T16:58:00Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Attention-based Reinforcement Learning for Real-Time UAV Semantic
Communication [53.46235596543596]
移動地利用者に対する空対地超信頼性・低遅延通信(URLLC)の問題点について検討する。
グラフアテンション交換ネットワーク(GAXNet)を用いたマルチエージェント深層強化学習フレームワークを提案する。
GAXNetは、最先端のベースラインフレームワークと比較して、0.0000001エラー率で6.5倍のレイテンシを実現している。
論文 参考訳(メタデータ) (2021-05-22T12:43:25Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - AU-AIR: A Multi-modal Unmanned Aerial Vehicle Dataset for Low Altitude
Traffic Surveillance [20.318367304051176]
カメラを搭載した無人航空機(UAV)は、空中(バードビュー)画像を撮影する利点がある。
オブジェクトアノテーションによる視覚データを含む、いくつかの空中データセットが導入されている。
本研究では,実環境下で収集されたマルチモーダルセンサデータを有する多目的航空データセット(AU-AIR)を提案する。
論文 参考訳(メタデータ) (2020-01-31T09:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。