論文の概要: SPIN: Spacecraft Imagery for Navigation
- arxiv url: http://arxiv.org/abs/2406.07500v3
- Date: Thu, 05 Dec 2024 10:23:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:37:23.900219
- Title: SPIN: Spacecraft Imagery for Navigation
- Title(参考訳): SPIN: ナビゲーション用の宇宙船画像
- Authors: Javier Montalvo, Juan Ignacio Bravo Pérez-Villar, Álvaro García-Martín, Pablo Carballeira, Jesús Bescós,
- Abstract要約: 実際の宇宙運用条件下で取得されるデータの不足は、学習ベースのビジュアルナビゲーションアルゴリズムを開発する上で大きな課題となる。
宇宙空間における幅広い視覚的ナビゲーションシナリオをサポートするために設計されたオープンソースツールであるSPINを提案する。
SPINは複数の地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
- 参考スコア(独自算出の注目度): 10.306879210363512
- License:
- Abstract: The scarcity of data acquired under actual space operational conditions poses a significant challenge for developing learning-based visual navigation algorithms crucial for autonomous spacecraft navigation. This data shortage is primarily due to the prohibitive costs and inherent complexities of space operations. While existing datasets, predominantly relying on computer-simulated data, have partially addressed this gap, they present notable limitations. Firstly, these datasets often utilize proprietary image generation tools, restricting the evaluation of navigation methods in novel, unseen scenarios. Secondly, they provide limited ground-truth data, typically focusing solely on the spacecraft's translation and rotation relative to the camera. To address these limitations, we present SPIN (SPacecraft Imagery for Navigation), an open-source spacecraft image generation tool designed to support a wide range of visual navigation scenarios in space, with a particular focus on relative navigation tasks. SPIN provides multiple modalities of ground-truth data and allows researchers to employ custom 3D models of satellites, define specific camera-relative poses, and adjust settings such as camera parameters or environmental illumination conditions. We also propose a method for exploiting our tool as a data augmentation module. We validate our tool on the spacecraft pose estimation task by training with a SPIN-generated replica of SPEED+, reaching a 47% average error reduction on SPEED+ testbed data (that simulates realistic space conditions), further reducing it to a 60% error reduction when using SPIN as a data augmentation method. Both the SPIN tool (and source code) and our SPIN-generated version of SPEED+ will be publicly released upon paper acceptance on GitHub. https://github.com/vpulab/SPIN
- Abstract(参考訳): 実際の宇宙運用条件下で取得されるデータの不足は、自律的な宇宙船ナビゲーションに不可欠な学習ベースのビジュアルナビゲーションアルゴリズムを開発する上で大きな課題となる。
このデータ不足は、主に宇宙運用の禁止コストと固有の複雑さのためである。
既存のデータセットは、主にコンピュータシミュレーションデータに依存しているが、このギャップに部分的に対処している。
まず、これらのデータセットはプロプライエタリな画像生成ツールを利用することが多く、新しい未知のシナリオにおけるナビゲーション手法の評価を制限する。
第2に、通常はカメラに対する宇宙船の翻訳と回転にのみ焦点を絞った、限られた地上データを提供する。
これらの制約に対処するため、SPIN(SPacecraft Imagery for Navigation)は、宇宙空間における幅広い視覚的なナビゲーションシナリオをサポートするために設計されたオープンソースの宇宙船画像生成ツールであり、特に相対的なナビゲーションタスクに焦点を当てている。
SPINは、地上データの複数のモダリティを提供し、研究者は衛星のカスタム3Dモデルを使用し、特定のカメラ相対的なポーズを定義し、カメラパラメータや環境照明条件などの設定を調整することができる。
また,このツールをデータ拡張モジュールとして活用する手法を提案する。
本研究では,SPIN生成したSPEED+のレプリカを用いて,SPEED+テストベッドデータの平均誤差を47%削減し,さらにSPINをデータ拡張法として使用する場合の誤差を60%削減した。
SPINツール(とソースコード)と当社のSPIN生成バージョンのSPEED+は、GitHubで論文の受理時に公開される。
https://github.com/vpulab/SPIN
関連論文リスト
- Mixing Data-driven and Geometric Models for Satellite Docking Port State Estimation using an RGB or Event Camera [4.9788231201543]
この研究は、最近リリースされたLockheed Martin Mission Augmentation Port (LM-MAP) をターゲットとして、衛星に依存しない運用に焦点を当てている。
本稿では,標準RGBセンサやイベントカメラの単眼視データを用いて,衛星ドッキングポートの自動検出と状態推定を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-23T22:28:09Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z) - SPARK: SPAcecraft Recognition leveraging Knowledge of Space Environment [10.068428438297563]
本稿では、SPARKデータセットを新しいユニークな空間オブジェクトマルチモーダルイメージデータセットとして提案する。
SPARKデータセットは、現実的な宇宙シミュレーション環境下で生成される。
1モードあたり約150kの画像、RGBと深さ、宇宙船とデブリの11のクラスを提供する。
論文 参考訳(メタデータ) (2021-04-13T07:16:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。