論文の概要: SPIN: Spacecraft Imagery for Navigation
- arxiv url: http://arxiv.org/abs/2406.07500v2
- Date: Wed, 12 Jun 2024 12:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 11:09:07.047880
- Title: SPIN: Spacecraft Imagery for Navigation
- Title(参考訳): SPIN: ナビゲーション用の宇宙船画像
- Authors: Javier Montalvo, Juan Ignacio Bravo Pérez-Villar, Álvaro García-Martín, Pablo Carballeira, Jesús Besc'os,
- Abstract要約: 本研究では、2つの宇宙船間の相対航法のためのオープンソースのリアルな宇宙船画像生成ツールSPINを提案する。
SPINはさまざまな地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
実空間条件をシミュレートする一般的なテストベッドデータにおいて,平均誤差を50%削減することを示す。
- 参考スコア(独自算出の注目度): 8.155713824482767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data acquired in space operational conditions is scarce due to the costs and complexity of space operations. This poses a challenge to learning-based visual-based navigation algorithms employed in autonomous spacecraft navigation. Existing datasets, which largely depend on computer-simulated data, have partially filled this gap. However, the image generation tools they use are proprietary, which limits the evaluation of methods to unseen scenarios. Furthermore, these datasets provide limited ground-truth data, primarily focusing on the spacecraft's translation and rotation relative to the camera. To address these limitations, we present SPIN (SPacecraft Imagery for Navigation), an open-source realistic spacecraft image generation tool for relative navigation between two spacecrafts. SPIN provides a wide variety of ground-truth data and allows researchers to employ custom 3D models of satellites, define specific camera-relative poses, and adjust various settings such as camera parameters and environmental illumination conditions. For the task of spacecraft pose estimation, we compare the results of training with a SPIN-generated dataset against existing synthetic datasets. We show a %50 average error reduction in common testbed data (that simulates realistic space conditions). Both the SPIN tool (and source code) and our enhanced version of the synthetic datasets will be publicly released upon paper acceptance on GitHub https://github.com/vpulab/SPIN.
- Abstract(参考訳): 宇宙運用条件で取得したデータは、宇宙運用のコストと複雑さのために不足している。
これは、自律的な宇宙船ナビゲーションで使用される学習ベースの視覚ベースのナビゲーションアルゴリズムに挑戦している。
既存のデータセットは、主にコンピュータシミュレーションデータに依存するが、このギャップを部分的に埋めている。
しかし、彼らが使用している画像生成ツールはプロプライエタリであり、メソッドの評価を目に見えないシナリオに制限する。
さらに、これらのデータセットは、主にカメラに対する宇宙船の翻訳と回転に焦点を当て、限られた地上データを提供する。
これらの制約に対処するため,SPIN(SPacecraft Imagery for Navigation)という,2つの宇宙船間の相対的なナビゲーションのための,オープンソースの現実的な宇宙船画像生成ツールを提案する。
SPINはさまざまな地上データを提供し、研究者は衛星のカスタム3Dモデルを使用し、特定のカメラ相対的なポーズを定義し、カメラパラメータや環境照明条件などの様々な設定を調整することができる。
宇宙船のポーズ推定作業では,SPIN生成データセットと既存の合成データセットを比較した。
実空間条件をシミュレートしたテストベッドデータにおいて, 平均誤差を50パーセント削減することを示す。
SPINツール(とソースコード)と我々の強化された合成データセットは、GitHub https://github.com/vpulab/SPIN.comで論文の受理時に公開される。
関連論文リスト
- The Devil is in the Details: Simple Remedies for Image-to-LiDAR Representation Learning [21.088879084249328]
我々は、空間的および時間的軸に沿って見過ごされた設計選択に焦点を当てる。
基本設計要素、例えばLiDAR座標系、既存の入力インタフェースによる量子化は、損失関数の開発よりも重要である。
論文 参考訳(メタデータ) (2025-01-16T11:44:29Z) - Mixing Data-driven and Geometric Models for Satellite Docking Port State Estimation using an RGB or Event Camera [4.9788231201543]
この研究は、最近リリースされたLockheed Martin Mission Augmentation Port (LM-MAP) をターゲットとして、衛星に依存しない運用に焦点を当てている。
本稿では,標準RGBセンサやイベントカメラの単眼視データを用いて,衛星ドッキングポートの自動検出と状態推定を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-23T22:28:09Z) - Data downlink prioritization using image classification on-board a 6U CubeSat [0.0]
九州工業大学と共同研究員は,ナノサテライトミッションであるVERTECSのジョイントベンチャーを立ち上げた。
主なミッションは、光波長の宇宙背景放射を観測することで星の形成履歴を解明することである。
VERTECS衛星は小型の望遠鏡と高精度の姿勢制御システムを備え、地上での分析のために宇宙データをキャプチャする。
そこで我々は,データダウンリンクの優先順位付けと最適化のために,最適な画像データを自律的に分類し,圧縮するオンオービットシステムを提案する。
論文 参考訳(メタデータ) (2024-08-27T08:38:45Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。