論文の概要: SpY: A Context-Based Approach to Spacecraft Component Detection
- arxiv url: http://arxiv.org/abs/2406.18709v1
- Date: Wed, 26 Jun 2024 19:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 16:06:39.745583
- Title: SpY: A Context-Based Approach to Spacecraft Component Detection
- Title(参考訳): SpY: 宇宙機コンポーネント検出のためのコンテキストベースアプローチ
- Authors: Trupti Mahendrakar, Ryan T. White, Madhur Tiwari,
- Abstract要約: 本稿では、カメラフィードを用いて、未知の宇宙物体(RSO)のソーラーパネル、ボディパネル、アンテナ、スラスタなどのコンポーネントを自律的に特徴付けることに焦点を当てる。
CNNは学習パターンとオブジェクト検出の実行に優れていますが、トレーニングデータとは異なる環境で検出や誤分類を見逃すことに苦労しています。
本稿では,コンテキスト知識を取り入れたCNNの一般化性を活用した,SpaceYOLOv2(SpY)と呼ばれるエンドツーエンドオブジェクト検出器を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on autonomously characterizing components such as solar panels, body panels, antennas, and thrusters of an unknown resident space object (RSO) using camera feed to aid autonomous on-orbit servicing (OOS) and active debris removal. Significant research has been conducted in this area using convolutional neural networks (CNNs). While CNNs are powerful at learning patterns and performing object detection, they struggle with missed detections and misclassifications in environments different from the training data, making them unreliable for safety in high-stakes missions like OOS. Additionally, failures exhibited by CNNs are often easily rectifiable by humans using commonsense reasoning and contextual knowledge. Embedding such reasoning in an object detector could improve detection accuracy. To validate this hypothesis, this paper presents an end-to-end object detector called SpaceYOLOv2 (SpY), which leverages the generalizability of CNNs while incorporating contextual knowledge using traditional computer vision techniques. SpY consists of two main components: a shape detector and the SpaceYOLO classifier (SYC). The shape detector uses CNNs to detect primitive shapes of RSOs and SYC associates these shapes with contextual knowledge, such as color and texture, to classify them as spacecraft components or "unknown" if the detected shape is uncertain. SpY's modular architecture allows customizable usage of contextual knowledge to improve detection performance, or SYC as a secondary fail-safe classifier with an existing spacecraft component detector. Performance evaluations on hardware-in-the-loop images of a mock-up spacecraft demonstrate that SpY is accurate and an ensemble of SpY with YOLOv5 trained for satellite component detection improved the performance by 23.4% in recall, demonstrating enhanced safety for vision-based navigation tasks.
- Abstract(参考訳): 本稿では, 無人軌道サービス(OOS)とアクティブデブリ除去を支援するために, カメラフィードを用いた未知の宇宙物体(RSO)のソーラーパネル, ボディーパネル, アンテナ, スラスタなどの部品を自律的に特徴付けることに焦点を当てる。
この領域では畳み込みニューラルネットワーク(CNN)を用いて重要な研究が行われている。
CNNはパターンを学習し、オブジェクト検出を行うのに優れていますが、トレーニングデータとは異なる環境で検出や誤分類を見逃すことに苦労しています。
加えて、CNNが示す失敗は、常識的推論と文脈的知識を使用して、人間が容易に修正できる。
このような推論を物体検出器に埋め込むことで、検出精度が向上する可能性がある。
この仮説を検証するために,従来のコンピュータビジョン技術を用いてコンテキスト知識を取り入れつつ,CNNの一般化性を活用する,SpaceYOLOv2(SpY)と呼ばれるエンドツーエンドオブジェクト検出器を提案する。
SpYは、形状検出器とSpaceYOLO分類器(SYC)の2つの主要コンポーネントで構成されている。
形状検出器はCNNを用いてRSOの原始的な形状を検知し、SYCはこれらの形状を色やテクスチャなどの文脈的知識と関連付け、検出された形状が不確かであれば宇宙船の構成要素や「未知」として分類する。
SpYのモジュラーアーキテクチャは、検出性能を改善するためにコンテキスト知識をカスタマイズすることができる。
モックアップ宇宙船のハードウェア・イン・ザ・ループ画像の性能評価は、SpYが正確であることを示し、衛星部品検出のために訓練されたYOLOv5とSpYのアンサンブルにより、リコール時の性能が23.4%向上し、視覚ベースのナビゲーションタスクの安全性が向上したことを示している。
関連論文リスト
- Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - A Simulation-Augmented Benchmarking Framework for Automatic RSO Streak
Detection in Single-Frame Space Images [7.457841062817294]
大規模データセットが利用可能な場合、ディープ畳み込みニューラルネットワーク(DCNN)は、オブジェクト検出において優れたパフォーマンスを示している。
RSO検出のための新しいシミュレーション強化ベンチマークフレームワーク(SAB-RSOD)を紹介する。
本フレームワークでは,実空間画像をキャプチャするセンサのハードウェアパラメータを最大限に活用することにより,まず高忠実度RSOシミュレータを開発する。
次に,このシミュレータを用いて宇宙空間に多彩なROSを含む画像を生成し,自動的に注釈を付ける。
論文 参考訳(メタデータ) (2023-04-30T07:00:16Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - SAFE-OCC: A Novelty Detection Framework for Convolutional Neural Network
Sensors and its Application in Process Control [0.0]
本稿では,センサアクティベート特徴抽出ワンクラス分類(SAFE-OCC)と呼ばれる,畳み込みニューラルネットワーク(CNN)センサの新規検出フレームワークを提案する。
このフレームワークは,プロセス制御アーキテクチャにおけるコンピュータビジョンセンサの安全な利用を可能にする。
論文 参考訳(メタデータ) (2022-02-03T19:47:55Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - An Analysis of Deep Object Detectors For Diver Detection [19.14344722263869]
ビデオから得られたダイバーの注釈付き画像を約105,000枚作成する。
私たちは、Mobilenetを使ったSSD、Faster R-CNN、YOLOなど、オブジェクト検出のための最先端のディープニューラルネットワークをトレーニングしています。
この結果に基づき、ロボットのリアルタイム応用にTiny-YOLOv4を推奨する。
論文 参考訳(メタデータ) (2020-11-25T01:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。