論文の概要: SafeLand: Safe Autonomous Landing in Unknown Environments with Bayesian Semantic Mapping
- arxiv url: http://arxiv.org/abs/2603.17430v1
- Date: Wed, 18 Mar 2026 07:11:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.941273
- Title: SafeLand: Safe Autonomous Landing in Unknown Environments with Bayesian Semantic Mapping
- Title(参考訳): SafeLand:ベイジアンセマンティックマッピングによる未知の環境における安全な自律着陸
- Authors: Markus Gross, Andreas Greiner, Sai Bharadhwaj Matha, Felix Soest, Daniel Cremers, Henri Meeß,
- Abstract要約: 安全な自律着陸(SAL)のための視覚ベースシステムであるSafeLandを紹介する。
提案手法は,ディープラーニングに基づくセマンティックセマンティックセグメンテーションによるオンラインセマンティックグラウンドマップを構築し,組み込みデプロイメントに最適化する。
本手法を高度100mまでの産業・都市・農村環境における200のシミュレーションと60のエンドツーエンドフィールドテストで広範囲に評価した。
- 参考スコア(独自算出の注目度): 41.90149506430796
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous landing of uncrewed aerial vehicles (UAVs) in unknown, dynamic environments poses significant safety challenges, particularly near people and infrastructure, as UAVs transition to routine urban and rural operations. Existing methods often rely on prior maps, heavy sensors like LiDAR, static markers, or fail to handle non-cooperative dynamic obstacles like humans, limiting generalization and real-time performance. To address these challenges, we introduce SafeLand, a lean, vision-based system for safe autonomous landing (SAL) that requires no prior information and operates only with a camera and a lightweight height sensor. Our approach constructs an online semantic ground map via deep learning-based semantic segmentation, optimized for embedded deployment and trained on a consolidation of seven curated public aerial datasets (achieving 70.22% mIoU across 20 classes), which is further refined through Bayesian probabilistic filtering with temporal semantic decay to robustly identify metric-scale landing spots. A behavior tree then governs adaptive landing, iteratively validates the spot, and reacts in real time to dynamic obstacles by pausing, climbing, or rerouting to alternative spots, maximizing human safety. We extensively evaluate our method in 200 simulations and 60 end-to-end field tests across industrial, urban, and rural environments at altitudes up to 100m, demonstrating zero false negatives for human detection. Compared to the state of the art, SafeLand achieves sub-second response latency, substantially lower than previous methods, while maintaining a superior success rate of 95%. To facilitate further research in aerial robotics, we release SafeLand's segmentation model as a plug-and-play ROS package, available at https://github.com/markus-42/SafeLand.
- Abstract(参考訳): 無人航空機(UAV)の未知のダイナミックな環境への自律着陸は、都市部や農村部での定期的な運用への移行に伴って、特に人やインフラの近くで重要な安全上の課題を引き起こす。
既存の方法は、しばしば先行マップ、LiDARのような重センサ、静的マーカー、あるいは人間のような非協調的なダイナミック障害の処理に失敗し、一般化とリアルタイムのパフォーマンスを制限している。
これらの課題に対処するために、私たちはSafeLandを紹介します。これは、安全自律着陸(SAL)のためのリーンな視覚ベースのシステムで、事前情報を必要とせず、カメラと軽量な高さセンサーでのみ動作します。
提案手法は, 深層学習に基づくセマンティックセグメンテーションによるオンラインセマンティックグラウンドマップを構築し, 組込み配置に最適化され, 7つのキュレートされた公共航空データセット(20クラスで70.22% mIoUを達成)の統合で訓練された。
次に、行動木が適応着陸を制御し、その場所を反復的に検証し、人間の安全を最大化するために、舗装、登山、または代替地点への移動によって動的障害物にリアルタイムで反応する。
提案手法を高度100mまでの産業・都市・農村環境における200のシミュレーションと60のエンド・ツー・エンド・フィールド・テストで広く評価し,人体検出において偽陰性はゼロであることを示した。
SafeLandは最先端のシステムと比較すると、従来の方法よりもかなり低速で、95%の優れた成功率を維持しながら、秒未満の応答レイテンシを実現している。
航空ロボティクスのさらなる研究を促進するため, SafeLand のセグメンテーションモデルを https://github.com/markus-42/SafeLand で利用可能なプラグアンドプレイ ROS パッケージとしてリリースした。
関連論文リスト
- Semantically Aware UAV Landing Site Assessment from Remote Sensing Imagery via Multimodal Large Language Models [5.987458168544856]
安全UAV緊急着陸には、従来の幾何学的センサーに見えない複雑なセマンティックなリスクを理解する必要がある。
本稿では,リモートセンシング(RS)画像とマルチモーダル大規模言語モデル(MLLM)を併用した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-01T11:30:03Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Secure Navigation using Landmark-based Localization in a GPS-denied
Environment [1.19658449368018]
本稿では,ランドマークに基づくローカライゼーション(LanBLoc)と拡張カルマンフィルタ(EKF)を統合した新たなフレームワークを提案する。
本稿では,障害物や危険のない経路を移動する物体を誘導する2つのアプローチについて,シミュレーションした戦場シナリオを提案する。
論文 参考訳(メタデータ) (2024-02-22T04:41:56Z) - VAPOR: Legged Robot Navigation in Outdoor Vegetation Using Offline
Reinforcement Learning [53.13393315664145]
本研究では,非構造で密集した屋外環境における自律脚ロボットナビゲーションのための新しい手法であるVAPORを提案する。
本手法は,アクター・クリティカル・ネットワークと実際の屋外植生で収集された任意のデータを用いて,新しいRLポリシーを訓練する。
VAPORの動作は成功率を最大40%向上させ、平均電流消費量を最大2.9%削減し、正規化軌道長を最大11.2%削減する。
論文 参考訳(メタデータ) (2023-09-14T16:21:27Z) - You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings [7.201292864036088]
危険地を検出するための安価で効果的な方法は、視覚カメラを使用することである。
視覚的危険地形検出の伝統的な技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介した。
論文 参考訳(メタデータ) (2023-03-08T21:11:51Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Visual-based Safe Landing for UAVs in Populated Areas: Real-time
Validation in Virtual Environments [0.0]
本稿では,実環境における視覚に基づく自律着陸の安全性と徹底的な評価のためのフレームワークを提案する。
本研究では,UnrealグラフィックスエンジンとAirSimプラグインを併用したドローンシミュレーションを提案する。
ベスト」SLZを選択するための2つの異なる基準について検討し、異なるシナリオで仮想ドローンの自律着陸時に評価する。
論文 参考訳(メタデータ) (2022-03-25T17:22:24Z) - Embedding Earth: Self-supervised contrastive pre-training for dense land
cover classification [61.44538721707377]
本研究では,衛星画像の高可用性を活用するための自己監督型コントラスト事前学習法として,エンベディングアースを提案する。
提案手法による事前学習では, 25%の絶対mIoUが得られた。
学習した特徴は、異なる領域間で一般化され、提案した事前学習スキームの可能性を開放する。
論文 参考訳(メタデータ) (2022-03-11T16:14:14Z) - Robust Autonomous Landing of UAV in Non-Cooperative Environments based
on Dynamic Time Camera-LiDAR Fusion [11.407952542799526]
低コストLiDARと双眼カメラを備えたUAVシステムを構築し,非協調環境における自律着陸を実現する。
我々は,LiDARの非繰り返し走査と高いFOVカバレッジ特性を利用して,動的時間深度補完アルゴリズムを考案した。
深度マップに基づいて, 傾斜, 粗度, 安全領域の大きさなどの高層地形情報を導出する。
論文 参考訳(メタデータ) (2020-11-27T14:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。