論文の概要: You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings
- arxiv url: http://arxiv.org/abs/2303.04891v1
- Date: Wed, 8 Mar 2023 21:11:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 17:00:06.675715
- Title: You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings
- Title(参考訳): 一度だけクラッシュする: リアルタイムにオブジェクト検出を改良し、危険地層検出と自律惑星着陸のための分類を行う
- Authors: Timothy Chase Jr, Chris Gnam, John Crassidis, Karthik Dantu
- Abstract要約: 危険地を検出するための安価で効果的な方法は、視覚カメラを使用することである。
視覚的危険地形検出の伝統的な技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介した。
- 参考スコア(独自算出の注目度): 7.201292864036088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The detection of hazardous terrain during the planetary landing of spacecraft
plays a critical role in assuring vehicle safety and mission success. A cheap
and effective way of detecting hazardous terrain is through the use of visual
cameras, which ensure operational ability from atmospheric entry through
touchdown. Plagued by resource constraints and limited computational power,
traditional techniques for visual hazardous terrain detection focus on template
matching and registration to pre-built hazard maps. Although successful on
previous missions, this approach is restricted to the specificity of the
templates and limited by the fidelity of the underlying hazard map, which both
require extensive pre-flight cost and effort to obtain and develop. Terrestrial
systems that perform a similar task in applications such as autonomous driving
utilize state-of-the-art deep learning techniques to successfully localize and
classify navigation hazards. Advancements in spacecraft co-processors aimed at
accelerating deep learning inference enable the application of these methods in
space for the first time. In this work, we introduce You Only Crash Once
(YOCO), a deep learning-based visual hazardous terrain detection and
classification technique for autonomous spacecraft planetary landings. Through
the use of unsupervised domain adaptation we tailor YOCO for training by
simulation, removing the need for real-world annotated data and expensive
mission surveying phases. We further improve the transfer of representative
terrain knowledge between simulation and the real world through visual
similarity clustering. We demonstrate the utility of YOCO through a series of
terrestrial and extraterrestrial simulation-to-real experiments and show
substantial improvements toward the ability to both detect and accurately
classify instances of planetary terrain.
- Abstract(参考訳): 宇宙船の惑星着陸時の危険地形の検出は、車両の安全性とミッション成功の確保に重要な役割を果たしている。
安価で効果的な地形検出方法は、視覚カメラを使用して、タッチダウンによる大気圏侵入からの運用能力を確保することである。
資源制約と計算能力の制限により、従来の視覚的危険地形検出技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
以前のミッションでは成功したが、このアプローチはテンプレートの特異性に限定されており、基礎となるハザードマップの忠実性によって制限されている。
自律運転のようなアプリケーションで同様のタスクを行う地上システムは、最先端のディープラーニング技術を使用してナビゲーションハザードをローカライズし、分類する。
深層学習推論の高速化を目的とした宇宙船コプロセッサの進歩により、これらの手法を宇宙に初めて適用できるようになった。
本研究は, 探査機の自律着陸のための深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介する。
教師なしドメイン適応を用いて、シミュレーションによるトレーニングのためにYOCOを調整し、現実世界の注釈付きデータや高価なミッションサーベイフェーズの必要性を取り除く。
さらに,視覚的類似性クラスタリングにより,シミュレーションと実世界間の地形知識の伝達をさらに改善する。
我々は,地球外および地球外シミュレーションから実地への一連の実験を通してYOCOの有用性を実証し,惑星の地形のインスタンスを検出・正確に分類する能力に対して,大幅な改善を示す。
関連論文リスト
- RLaGA: A Reinforcement Learning Augmented Genetic Algorithm For
Searching Real and Diverse Marker-Based Landing Violations [0.7709288517758135]
安全性を確保するために、実際の世界にデプロイする前に、自動ランディングシステムを完全にテストすることが重要です。
本稿では、強化学習(RL)拡張検索ベースのテストフレームワークであるRLaGAを提案する。
本手法は, 最大22.19%の違反事例を発生し, 発生した違反事例の多様性をほぼ2倍に向上させる。
論文 参考訳(メタデータ) (2023-10-11T10:54:01Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - SpaceYOLO: A Human-Inspired Model for Real-time, On-board Spacecraft
Feature Detection [0.0]
衝突の危険箇所を特定するためには、リアルタイムで自動的な宇宙船の特徴認識が必要である。
新しいアルゴリズムSpaceYOLOは、最先端のオブジェクト検出器YOLOv5を、人間にインスパイアされた意思決定プロセスに基づいて、別個のニューラルネットワークで融合する。
SpaceYOLOの自律型宇宙船検出の性能は、ハードウェア・イン・ザ・ループ実験において通常のYOLOv5と比較される。
論文 参考訳(メタデータ) (2023-02-02T02:11:39Z) - Deep Monocular Hazard Detection for Safe Small Body Landing [12.922946578413578]
危険検出と回避は、将来ロボットによる小型ボディサンプルの回収と着陸ミッションの鍵となる技術である。
本研究では,単一の単眼画像から直接着地安全性を予測するために,深いセマンティックセグメンテーション技術を活用する新しい安全マッピングパラダイムを提案する。
本研究は,OSIRIS-RExミッションから得られたサンプルの実際のその場画像に対して,高精度かつ正確な安全マッピング性能を示す。
論文 参考訳(メタデータ) (2023-01-30T19:40:46Z) - Aerial View Goal Localization with Reinforcement Learning [6.165163123577484]
本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
論文 参考訳(メタデータ) (2022-09-08T10:27:53Z) - Detection and Initial Assessment of Lunar Landing Sites Using Neural
Networks [0.0]
本稿では、誘導システムにおける着陸可能地域の初期評価を生成するために、受動的自律型ハザード検出と回避サブシステムに焦点を当てる。
このシステムは単一のカメラとMobileNetV2ニューラルネットワークアーキテクチャを使って、安全な着陸地点と岩や影、クレーターなどの危険を検知し、識別する。
論文 参考訳(メタデータ) (2022-07-23T04:29:18Z) - Embedding Earth: Self-supervised contrastive pre-training for dense land
cover classification [61.44538721707377]
本研究では,衛星画像の高可用性を活用するための自己監督型コントラスト事前学習法として,エンベディングアースを提案する。
提案手法による事前学習では, 25%の絶対mIoUが得られた。
学習した特徴は、異なる領域間で一般化され、提案した事前学習スキームの可能性を開放する。
論文 参考訳(メタデータ) (2022-03-11T16:14:14Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。