論文の概要: SpaceYOLO: A Human-Inspired Model for Real-time, On-board Spacecraft
Feature Detection
- arxiv url: http://arxiv.org/abs/2302.00824v1
- Date: Thu, 2 Feb 2023 02:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:40:43.440578
- Title: SpaceYOLO: A Human-Inspired Model for Real-time, On-board Spacecraft
Feature Detection
- Title(参考訳): SpaceYOLO: リアルタイム・オンボード・スペースクラフト特徴検出のための人間インスパイアされたモデル
- Authors: Trupti Mahendrakar, Ryan T. White, Markus Wilde, Madhur Tiwari
- Abstract要約: 衝突の危険箇所を特定するためには、リアルタイムで自動的な宇宙船の特徴認識が必要である。
新しいアルゴリズムSpaceYOLOは、最先端のオブジェクト検出器YOLOv5を、人間にインスパイアされた意思決定プロセスに基づいて、別個のニューラルネットワークで融合する。
SpaceYOLOの自律型宇宙船検出の性能は、ハードウェア・イン・ザ・ループ実験において通常のYOLOv5と比較される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of non-cooperative spacecraft and space debris in
orbit has precipitated a surging demand for on-orbit servicing and space debris
removal at a scale that only autonomous missions can address, but the
prerequisite autonomous navigation and flightpath planning to safely capture an
unknown, non-cooperative, tumbling space object is an open problem. This
requires algorithms for real-time, automated spacecraft feature recognition to
pinpoint the locations of collision hazards (e.g. solar panels or antennas) and
safe docking features (e.g. satellite bodies or thrusters) so safe, effective
flightpaths can be planned. Prior work in this area reveals the performance of
computer vision models are highly dependent on the training dataset and its
coverage of scenarios visually similar to the real scenarios that occur in
deployment. Hence, the algorithm may have degraded performance under certain
lighting conditions even when the rendezvous maneuver conditions of the chaser
to the target spacecraft are the same. This work delves into how humans perform
these tasks through a survey of how aerospace engineering students experienced
with spacecraft shapes and components recognize features of the three
spacecraft: Landsat, Envisat, Anik, and the orbiter Mir. The survey reveals
that the most common patterns in the human detection process were to consider
the shape and texture of the features: antennas, solar panels, thrusters, and
satellite bodies. This work introduces a novel algorithm SpaceYOLO, which fuses
a state-of-the-art object detector YOLOv5 with a separate neural network based
on these human-inspired decision processes exploiting shape and texture.
Performance in autonomous spacecraft detection of SpaceYOLO is compared to
ordinary YOLOv5 in hardware-in-the-loop experiments under different lighting
and chaser maneuver conditions at the ORION Laboratory at Florida Tech.
- Abstract(参考訳): 非協力的な宇宙船と軌道上の宇宙ゴミの急激な増加は、軌道上のサービシングと宇宙ゴミの除去の需要を、自律的なミッションのみに対処できる規模で増加させてきたが、未知の非協力的な宇宙物体を安全に捕獲するために必要な自律航法と飛行経路は、オープンな問題である。
これは、衝突事故(ソーラーパネルやアンテナなど)や安全なドッキング機能(衛星体やスラスタなど)の場所を特定するために、宇宙船のリアルタイム自動特徴認識のためのアルゴリズムを必要とするため、安全で効果的な飛行経路を計画できる。
この領域での先行研究により、コンピュータビジョンモデルのパフォーマンスは、トレーニングデータセットと、デプロイ時に発生する実際のシナリオと視覚的に類似したシナリオのカバレッジに大きく依存していることが分かる。
したがって、追尾機の目標宇宙船へのランデブー操作条件が同一であっても、一定の照明条件下での性能が低下する可能性がある。
この研究は、宇宙工学の学生が宇宙船の形や部品を経験し、Landsat、Envisat、Anik、そしてオービタミールの3つの宇宙船の特徴をどう認識するかを調査することで、人間の作業の仕方を調べます。
調査の結果、人間の検出プロセスの最も一般的なパターンは、アンテナ、ソーラーパネル、スラスタ、衛星体といった特徴の形状とテクスチャを考慮することだった。
このアルゴリズムは、形状とテクスチャを活かしたこれらの人間にインスパイアされた決定プロセスに基づいて、最先端のオブジェクト検出器YOLOv5を別のニューラルネットワークに融合する。
SpaceYOLOの自律型宇宙船検出の性能は、フロリダ工科大学のORION研究所で異なる照明および追尾条件下でのループ内のハードウェア実験において、通常のYOLOv5と比較される。
関連論文リスト
- Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - SatSplatYOLO: 3D Gaussian Splatting-based Virtual Object Detection Ensembles for Satellite Feature Recognition [0.0]
本研究では、軌道上の未知の非協力衛星の成分のマッピングと高信頼度検出のためのアプローチを提案する。
我々は、衛星の3次元表現を学習し、ターゲットの仮想ビューをレンダリングし、仮想ビュー上でYOLOv5オブジェクト検出器をアンサンブルするために、加速3次元ガウススプラッティングを実装した。
論文 参考訳(メタデータ) (2024-06-04T17:54:20Z) - Characterizing Satellite Geometry via Accelerated 3D Gaussian Splatting [0.0]
本稿では,3次元ガウス散乱に基づく軌道上の衛星のマッピング手法を提案する。
ループ型衛星モックアップにおけるモデルトレーニングと3次元レンダリング性能を実演する。
我々のモデルでは、未知の衛星の高品質な新しいビューを、従来のNeRFベースのアルゴリズムよりも2桁近く高速にトレーニングし、レンダリングすることが可能であることが示されている。
論文 参考訳(メタデータ) (2024-01-05T00:49:56Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings [7.201292864036088]
危険地を検出するための安価で効果的な方法は、視覚カメラを使用することである。
視覚的危険地形検出の伝統的な技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介した。
論文 参考訳(メタデータ) (2023-03-08T21:11:51Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。