論文の概要: Bridging Domain Gap for Flight-Ready Spaceborne Vision
- arxiv url: http://arxiv.org/abs/2409.11661v1
- Date: Wed, 18 Sep 2024 02:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:19:53.407037
- Title: Bridging Domain Gap for Flight-Ready Spaceborne Vision
- Title(参考訳): 飛行可能スペースボーンビジョンのためのブリッジ領域ギャップ
- Authors: Tae Ha Park, Simone D'Amico,
- Abstract要約: この研究は、既知の非協力的なターゲット宇宙船の単眼的なポーズ推定のためのニューラルネットワーク(NN)であるSpacecraft Pose Network v3(SPNv3)を提示する。
SPNv3は、オフラインのトレーニングや地上での検証で観測されていない、宇宙で撮影された画像に堅牢性を提供しながら、計算的に効率的であるように設計され、訓練されている。
実験により、最後のSPNv3は、コンピュータ生成合成画像のみを訓練しながら、ロボットテストベッドからのハードウェア・イン・ループ画像に対して、最先端の精度を達成できることが示されている。
- 参考スコア(独自算出の注目度): 4.14360329494344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents Spacecraft Pose Network v3 (SPNv3), a Neural Network (NN) for monocular pose estimation of a known, non-cooperative target spacecraft. As opposed to existing literature, SPNv3 is designed and trained to be computationally efficient while providing robustness to spaceborne images that have not been observed during offline training and validation on the ground. These characteristics are essential to deploying NNs on space-grade edge devices. They are achieved through careful NN design choices, and an extensive trade-off analysis reveals features such as data augmentation, transfer learning and vision transformer architecture as a few of those that contribute to simultaneously maximizing robustness and minimizing computational overhead. Experiments demonstrate that the final SPNv3 can achieve state-of-the-art pose accuracy on hardware-in-the-loop images from a robotic testbed while having trained exclusively on computer-generated synthetic images, effectively bridging the domain gap between synthetic and real imagery. At the same time, SPNv3 runs well above the update frequency of modern satellite navigation filters when tested on a representative graphical processing unit system with flight heritage. Overall, SPNv3 is an efficient, flight-ready NN model readily applicable to a wide range of close-range rendezvous and proximity operations with target resident space objects. The code implementation of SPNv3 will be made publicly available.
- Abstract(参考訳): この研究は、既知の非協力的なターゲット宇宙船の単眼的なポーズ推定のためのニューラルネットワーク(NN)であるSpacecraft Pose Network v3(SPNv3)を提示する。
既存の文献とは対照的に、SPNv3は、オフラインのトレーニングや地上での検証で観測されていない画像に対して堅牢性を提供しながら、計算的に効率的であるように設計され、訓練されている。
これらの特徴は、空間グレードのエッジデバイスにNNをデプロイするのに不可欠である。
それらはNN設計の慎重な選択を通じて達成され、データ拡張、トランスファーラーニング、ビジョントランスフォーマーアーキテクチャといった特徴を、堅牢性と計算オーバーヘッドの最小化に同時に貢献するものとして、広範なトレードオフ分析によって明らかにしている。
実験により、最終的なSPNv3は、コンピュータ生成合成画像のみを訓練しながら、ロボットテストベッドからのハードウェア・イン・ループ画像に対する最先端のポーズ精度を達成でき、合成画像と実際の画像のドメインギャップを効果的に埋めることができることが示された。
同時に、SPNv3は、飛行履歴を持つ代表的なグラフィカル処理ユニットシステムでテストする場合、現代の衛星ナビゲーションフィルタの更新周波数よりもはるかに高い速度で動作します。
全体として、SPNv3は効率よく飛行可能なNNモデルであり、広範囲の近距離ランデブーやターゲット空間オブジェクトとの近接操作に容易に適用できる。
SPNv3のコード実装は一般公開される予定だ。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Characterizing Satellite Geometry via Accelerated 3D Gaussian Splatting [0.0]
本稿では,3次元ガウス散乱に基づく軌道上の衛星のマッピング手法を提案する。
ループ型衛星モックアップにおけるモデルトレーニングと3次元レンダリング性能を実演する。
我々のモデルでは、未知の衛星の高品質な新しいビューを、従来のNeRFベースのアルゴリズムよりも2桁近く高速にトレーニングし、レンダリングすることが可能であることが示されている。
論文 参考訳(メタデータ) (2024-01-05T00:49:56Z) - 3D Reconstruction of Non-cooperative Resident Space Objects using
Instant NGP-accelerated NeRF and D-NeRF [0.0]
この研究は、ニューラル放射場(NeRF)アルゴリズムの変動であるInstant NeRFとD-NeRFを軌道上のRSOをマッピングする問題に適応させる。
これらのアルゴリズムは、宇宙船モックアップの画像のデータセットを用いて、3次元再構成の品質とハードウェア要件を評価する。
論文 参考訳(メタデータ) (2023-01-22T05:26:08Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Robust Multi-Task Learning and Online Refinement for Spacecraft Pose
Estimation across Domain Gap [4.8951183832371]
スペースクラフト・ポース・ネットワーク v2 (SPNv2) は、非協力的な宇宙船をドメインギャップを越えて推定するための畳み込みニューラルネットワーク (CNN) である。
オンラインドメインリファインメント(ODR)は、デプロイ時にオンラインのターゲットドメインイメージ上のSPNv2の正規化レイヤのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-08T18:49:34Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - A New Backbone for Hyperspectral Image Reconstruction [90.48427561874402]
3次元ハイパースペクトル画像(HSI)再構成は、スナップショット圧縮画像の逆過程を指す。
空間/スペクトル不変Residual U-Net、すなわちSSI-ResU-Netを提案する。
SSI-ResU-Net は浮動小数点演算の 77.3% 以上で競合する性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T16:20:51Z) - Real-Time, Flight-Ready, Non-Cooperative Spacecraft Pose Estimation
Using Monocular Imagery [1.1083289076967897]
本研究は、新しい畳み込みニューラルネットワーク(CNN)に基づく単眼ポーズ推定システムを提案する。
計算要求の少ない最先端の精度を実現する。
低出力のフライトライクなハードウェアでリアルタイム性能を実現します。
論文 参考訳(メタデータ) (2021-01-23T18:40:08Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。