論文の概要: An Edge AI Solution for Space Object Detection
- arxiv url: http://arxiv.org/abs/2505.13468v1
- Date: Thu, 08 May 2025 14:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-25 10:52:49.054015
- Title: An Edge AI Solution for Space Object Detection
- Title(参考訳): 宇宙物体検出のためのエッジAIソリューション
- Authors: Wenxuan Zhang, Peng Hu,
- Abstract要約: 宇宙物体検出タスクのための深層学習に基づく視覚センシングに基づくエッジAIソリューションを提案する。
我々は,これらのモデルの性能を,様々な現実的な空間オブジェクト検出シナリオで評価する。
- 参考スコア(独自算出の注目度): 29.817805350971366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective Edge AI for space object detection (SOD) tasks that can facilitate real-time collision assessment and avoidance is essential with the increasing space assets in near-Earth orbits. In SOD, low Earth orbit (LEO) satellites must detect other objects with high precision and minimal delay. We explore an Edge AI solution based on deep-learning-based vision sensing for SOD tasks and propose a deep learning model based on Squeeze-and-Excitation (SE) layers, Vision Transformers (ViT), and YOLOv9 framework. We evaluate the performance of these models across various realistic SOD scenarios, demonstrating their ability to detect multiple satellites with high accuracy and very low latency.
- Abstract(参考訳): 宇宙物体検出(SOD)タスクに有効なエッジAIは、地球近傍の軌道における宇宙資産の増加に必要不可欠である。
SODでは、低軌道(LEO)衛星は高精度で最小限の遅延で他の天体を検出する必要がある。
SODタスクのためのディープラーニングに基づく視覚センシングに基づくエッジAIソリューションを探索し、Squeeze-and-Excitation(SE)層、ViT(Vit)フレームワーク、YOLOv9フレームワークに基づくディープラーニングモデルを提案する。
我々はこれらのモデルの性能を様々な現実的なSODシナリオで評価し、高精度で非常に低レイテンシで複数の衛星を検出できることを実証した。
関連論文リスト
- You Only Crash Once v2: Perceptually Consistent Strong Features for One-Stage Domain Adaptive Detection of Space Terrain [4.339510167603377]
惑星、月、小天体の表面地形をその場で検出することは、自律的な宇宙船の用途に不可欠である。
Unsupervised Domain Adaptation (UDA)は、異なるデータソースによるモデルトレーニングを容易にすることで、有望なソリューションを提供する。
UDA下での地形検出能力を向上するVSA方式の新たな追加を提案する。
論文 参考訳(メタデータ) (2025-01-23T14:58:49Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - SatSplatYOLO: 3D Gaussian Splatting-based Virtual Object Detection Ensembles for Satellite Feature Recognition [0.0]
本研究では、軌道上の未知の非協力衛星の成分のマッピングと高信頼度検出のためのアプローチを提案する。
我々は、衛星の3次元表現を学習し、ターゲットの仮想ビューをレンダリングし、仮想ビュー上でYOLOv5オブジェクト検出器をアンサンブルするために、加速3次元ガウススプラッティングを実装した。
論文 参考訳(メタデータ) (2024-06-04T17:54:20Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning [1.212848031108815]
DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
論文 参考訳(メタデータ) (2021-12-18T06:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。