論文の概要: Visual-based Safe Landing for UAVs in Populated Areas: Real-time
Validation in Virtual Environments
- arxiv url: http://arxiv.org/abs/2203.13792v1
- Date: Fri, 25 Mar 2022 17:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:36:56.520577
- Title: Visual-based Safe Landing for UAVs in Populated Areas: Real-time
Validation in Virtual Environments
- Title(参考訳): 人口密集地域におけるuavのビジュアルベースセーフランディング:仮想環境におけるリアルタイム検証
- Authors: Hector Tovanche-Picon, Javier Gonzalez-Trejo, Angel Flores-Abad and
Diego Mercado-Ravell
- Abstract要約: 本稿では,実環境における視覚に基づく自律着陸の安全性と徹底的な評価のためのフレームワークを提案する。
本研究では,UnrealグラフィックスエンジンとAirSimプラグインを併用したドローンシミュレーションを提案する。
ベスト」SLZを選択するための2つの異なる基準について検討し、異なるシナリオで仮想ドローンの自律着陸時に評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safe autonomous landing for Unmanned Aerial Vehicles (UAVs) in populated
areas is a crucial aspect for successful urban deployment, particularly in
emergency landing situations. Nonetheless, validating autonomous landing in
real scenarios is a challenging task involving a high risk of injuring people.
In this work, we propose a framework for real-time safe and thorough evaluation
of vision-based autonomous landing in populated scenarios, using
photo-realistic virtual environments. We propose to use the Unreal graphics
engine coupled with the AirSim plugin for drone's simulation, and evaluate
autonomous landing strategies based on visual detection of Safe Landing Zones
(SLZ) in populated scenarios. Then, we study two different criteria for
selecting the "best" SLZ, and evaluate them during autonomous landing of a
virtual drone in different scenarios and conditions, under different
distributions of people in urban scenes, including moving people. We evaluate
different metrics to quantify the performance of the landing strategies,
establishing a baseline for comparison with future works in this challenging
task, and analyze them through an important number of randomized iterations.
The study suggests that the use of the autonomous landing algorithms
considerably helps to prevent accidents involving humans, which may allow to
unleash the full potential of drones in urban environments near to people.
- Abstract(参考訳): 人口密集地における無人航空機(uav)の安全な自律着陸は、特に緊急着陸時の都市展開の成功にとって重要な側面である。
それでも、実際のシナリオにおける自律着陸の検証は、人を傷つけるリスクの高い課題である。
そこで本研究では,写真現実仮想環境を用いた視覚に基づく自律着陸のリアルタイム安全かつ徹底的な評価のためのフレームワークを提案する。
我々は,ドローンのシミュレーションにunreal graphics engineとairsimプラグインを併用し,居住シナリオにおける安全着陸ゾーン(slz)の視覚的検出に基づく自律着陸戦略を評価することを提案する。
そこで我々は,「ベスト」なSLZを選択するための2つの異なる基準について検討し,移動者を含む都会の人々の異なる分布の下で,異なるシナリオや状況下で仮想ドローンを自律着陸させる際の評価を行った。
着陸戦略の性能を定量的に評価し、この課題における今後の作業と比較するためのベースラインを確立し、重要な回数のランダム化イテレーションを通して解析する。
この研究は、自律着陸アルゴリズムを使用することで、人間にかかわる事故を防ぐことができることを示唆している。
関連論文リスト
- Generating Out-Of-Distribution Scenarios Using Language Models [58.47597351184034]
大規模言語モデル(LLM)は自動運転において有望であることを示している。
本稿では,多様なOF-Distribution(OOD)駆動シナリオを生成するためのフレームワークを提案する。
我々は、広範囲なシミュレーションを通じてフレームワークを評価し、新しい"OOD-ness"メトリクスを導入する。
論文 参考訳(メタデータ) (2024-11-25T16:38:17Z) - Risk Assessment for Autonomous Landing in Urban Environments using Semantic Segmentation [0.0]
都市環境のセマンティックセグメンテーションのために,最先端のビジュアルトランスフォーマーネットワークであるSegFormerを提案する。
提案手法はいくつかのケーススタディを通じて検証されている。
都市部における公民権の応用において、UAVの潜在能力を最大限に活用するのに役立つと信じている。
論文 参考訳(メタデータ) (2024-10-16T19:34:03Z) - Multi-UAV Pursuit-Evasion with Online Planning in Unknown Environments by Deep Reinforcement Learning [16.761470423715338]
マルチUAV追跡回避は、UAV群知能にとって重要な課題である。
本研究では,協調戦略学習における部分的可観測性に対処するために,回避者予測強化ネットワークを導入する。
我々は、2段階の報酬改善を通じて実現可能な政策を導出し、ゼロショット方式で実四重項にポリシーを展開する。
論文 参考訳(メタデータ) (2024-09-24T08:40:04Z) - ReGentS: Real-World Safety-Critical Driving Scenario Generation Made Stable [88.08120417169971]
機械学習に基づく自律運転システムは、現実世界のデータでは稀な安全クリティカルなシナリオで課題に直面していることが多い。
この研究は、軌道最適化によって複雑な現実世界の通常のシナリオを変更することによって、安全クリティカルな運転シナリオを生成することを検討する。
提案手法は、頑健なプランナーの訓練には役に立たない非現実的な発散軌道と避けられない衝突シナリオに対処する。
論文 参考訳(メタデータ) (2024-09-12T08:26:33Z) - UniSim: A Neural Closed-Loop Sensor Simulator [76.79818601389992]
センサ搭載車両によって記録された1つのログをキャプチャする、ニューラルネットワークシミュレータUniSimを提示する。
UniSimは、静的バックグラウンドと動的アクターの両方を再構築するために、ニューラルネットワーク機能グリッドを構築する。
動的オブジェクトの学習可能な事前情報を組み込んで、畳み込みネットワークを利用して未確認領域を完成させる。
論文 参考訳(メタデータ) (2023-08-03T17:56:06Z) - You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings [7.201292864036088]
危険地を検出するための安価で効果的な方法は、視覚カメラを使用することである。
視覚的危険地形検出の伝統的な技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介した。
論文 参考訳(メタデータ) (2023-03-08T21:11:51Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Robust Autonomous Landing of UAV in Non-Cooperative Environments based
on Dynamic Time Camera-LiDAR Fusion [11.407952542799526]
低コストLiDARと双眼カメラを備えたUAVシステムを構築し,非協調環境における自律着陸を実現する。
我々は,LiDARの非繰り返し走査と高いFOVカバレッジ特性を利用して,動的時間深度補完アルゴリズムを考案した。
深度マップに基づいて, 傾斜, 粗度, 安全領域の大きさなどの高層地形情報を導出する。
論文 参考訳(メタデータ) (2020-11-27T14:47:02Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。