論文の概要: Fail-Safe Human Detection for Drones Using a Multi-Modal Curriculum
Learning Approach
- arxiv url: http://arxiv.org/abs/2109.13666v1
- Date: Tue, 28 Sep 2021 12:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 20:24:49.064170
- Title: Fail-Safe Human Detection for Drones Using a Multi-Modal Curriculum
Learning Approach
- Title(参考訳): マルチモーダル学習を用いたドローンのフェイルセーフヒューマン検出
- Authors: Ali Safa, Tim Verbelen, Ilja Ocket, Andr\'e Bourdoux, Francky
Catthoor, Georges G.E. Gielen
- Abstract要約: KUL-UAVSAFEは、ドローンによる安全クリティカルな人検出の研究のための第一種データセットである。
本稿では,クロスフュージョンハイウェイを用いたCNNアーキテクチャを提案し,マルチモーダルデータのためのカリキュラム学習戦略を提案する。
- 参考スコア(独自算出の注目度): 1.094245191265935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drones are currently being explored for safety-critical applications where
human agents are expected to evolve in their vicinity. In such applications,
robust people avoidance must be provided by fusing a number of sensing
modalities in order to avoid collisions. Currently however, people detection
systems used on drones are solely based on standard cameras besides an emerging
number of works discussing the fusion of imaging and event-based cameras. On
the other hand, radar-based systems provide up-most robustness towards
environmental conditions but do not provide complete information on their own
and have mainly been investigated in automotive contexts, not for drones. In
order to enable the fusion of radars with both event-based and standard
cameras, we present KUL-UAVSAFE, a first-of-its-kind dataset for the study of
safety-critical people detection by drones. In addition, we propose a baseline
CNN architecture with cross-fusion highways and introduce a curriculum learning
strategy for multi-modal data termed SAUL, which greatly enhances the
robustness of the system towards hard RGB failures and provides a significant
gain of 15% in peak F1 score compared to the use of BlackIn, previously
proposed for cross-fusion networks. We demonstrate the real-time performance
and feasibility of the approach by implementing the system in an edge-computing
unit. We release our dataset and additional material in the project home page.
- Abstract(参考訳): ドローンは現在、人間のエージェントが周辺で進化すると予想される安全クリティカルな用途のために調査されている。
このようなアプリケーションでは、衝突を避けるために多数のセンシングモダリティを融合することにより、堅牢な人々回避を提供する必要がある。
しかし現在、ドローンで使われる人物検出システムは、画像とイベントベースのカメラの融合を議論する新しい研究に加えて、標準カメラのみに基づいている。
一方、レーダー方式のシステムは環境条件に対して最大限の堅牢性を提供するが、それ自体は完全な情報を提供しておらず、主に自動車の文脈で研究されている。
イベントベースカメラと標準カメラの両方でレーダーの融合を可能にするため、ドローンによる安全クリティカルな人検出の研究のための、第一種データセットであるKUL-UAVSAFEを提示する。
さらに, クロスフュージョンハイウェイを用いたベースラインCNNアーキテクチャを提案するとともに, SAULと呼ばれるマルチモーダルデータのためのカリキュラム学習戦略を導入する。
エッジ計算ユニットにシステムを実装することで,リアルタイムの性能と実現可能性を示す。
私たちは、プロジェクトホームページでデータセットと追加資料をリリースします。
関連論文リスト
- Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - Segmentation of Drone Collision Hazards in Airborne RADAR Point Clouds
Using PointNet [0.7067443325368975]
統合のための重要な前提条件は、安全な運用を確保するために、状況認識を増強したUAVを装備することである。
本研究は,複数の衝突リスクを同時に識別するために,レーダ技術を活用した航空点雲のエンドツーエンドセマンティックセマンティックセマンティックセグメンテーションを実現する。
我々の知る限り、これは空中における複数の衝突脅威の同時識別に対処する最初のアプローチであり、94%の精度を達成する。
論文 参考訳(メタデータ) (2023-11-06T16:04:58Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - VBSF-TLD: Validation-Based Approach for Soft Computing-Inspired Transfer
Learning in Drone Detection [0.0]
本稿では,コンピュータビジョンベースモジュールの不可欠な部分を構成する移動型ドローン検出手法を提案する。
事前学習されたモデルの知識を関連ドメインから活用することにより、限られたトレーニングデータであっても、トランスファー学習によりより良い結果が得られる。
特に、このスキームの有効性は、IOUベースの検証結果によって強調される。
論文 参考訳(メタデータ) (2023-06-11T22:30:23Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - HuPR: A Benchmark for Human Pose Estimation Using Millimeter Wave Radar [30.51398364813315]
本稿では,ミリ波レーダを用いた人間のポーズ推定ベンチマーク「Human Pose with Millimeter Wave Radar (HuPR)」を紹介する。
このデータセットは、レーダに基づく人間のポーズ推定のクロスモダリティトレーニングのために、クロスキャリブレーションされたmmWaveレーダセンサとモノクラーRGBカメラを用いて作成される。
論文 参考訳(メタデータ) (2022-10-22T22:28:40Z) - Cross Vision-RF Gait Re-identification with Low-cost RGB-D Cameras and
mmWave Radars [15.662787088335618]
本研究は, クロスモーダルヒト再識別(ReID)の問題に関する研究である。
マルチモーダル多人数共振器ReIDのための第1種視覚RFシステムを提案する。
提案システムは56名のボランティアのうち92.5%がトップ1の精度、97.5%がトップ5の精度を達成できる。
論文 参考訳(メタデータ) (2022-07-16T10:34:25Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。