論文の概要: SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap
- arxiv url: http://arxiv.org/abs/2110.03101v1
- Date: Wed, 6 Oct 2021 23:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:01:42.866829
- Title: SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap
- Title(参考訳): speed+: ドメインギャップを越えた宇宙船のポーズ推定のための次世代データセット
- Authors: Tae Ha Park, Marcus M\"artens, Gurvan Lecuyer, Dario Izzo, Simone
D'Amico
- Abstract要約: 本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
- 参考スコア(独自算出の注目度): 0.9449650062296824
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous vision-based spaceborne navigation is an enabling technology for
future on-orbit servicing and space logistics missions. While computer vision
in general has benefited from Machine Learning (ML), training and validating
spaceborne ML models are extremely challenging due to the impracticality of
acquiring a large-scale labeled dataset of images of the intended target in the
space environment. Existing datasets, such as Spacecraft PosE Estimation
Dataset (SPEED), have so far mostly relied on synthetic images for both
training and validation, which are easy to mass-produce but fail to resemble
the visual features and illumination variability inherent to the target
spaceborne images. In order to bridge the gap between the current practices and
the intended applications in future space missions, this paper introduces
SPEED+: the next generation spacecraft pose estimation dataset with specific
emphasis on domain gap. In addition to 60,000 synthetic images for training,
SPEED+ includes 9,531 simulated images of a spacecraft mockup model captured
from the Testbed for Rendezvous and Optical Navigation (TRON) facility. TRON is
a first-of-a-kind robotic testbed capable of capturing an arbitrary number of
target images with accurate and maximally diverse pose labels and high-fidelity
spaceborne illumination conditions. SPEED+ will be used in the upcoming
international Satellite Pose Estimation Challenge co-hosted with the Advanced
Concepts Team of the European Space Agency to evaluate and compare the
robustness of spaceborne ML models trained on synthetic images.
- Abstract(参考訳): 自律的なビジョンに基づく宇宙飛行ナビゲーションは、将来の軌道上のサービテーションと宇宙ロジスティクスのミッションを可能にする技術である。
一般に、コンピュータビジョンは機械学習(ML)の恩恵を受けているが、宇宙環境におけるターゲットの画像の大規模なラベル付きデータセットを取得するという非現実性のため、宇宙に浮かぶMLモデルの訓練と検証は非常に難しい。
既存のデータセット、例えば宇宙船のポーズ推定データセット(speed)は、トレーニングと検証の両方のために合成画像に依存しており、大量生産は容易であるが、対象の宇宙画像に固有の視覚特徴や照明変動に似ていない。
今後の宇宙ミッションにおける現在の実践と応用のギャップを埋めるため,次世代宇宙船SPEED+では,領域ギャップを特に重視した推定データセットを提案する。
トレーニング用の6万枚の合成画像に加えて、speed+には、ランデブーおよび光ナビゲーション(tron)施設の試験ベッドから撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
tronは、最も多様なポーズラベルと高精細なスペースベース照明条件で、任意の数のターゲット画像を撮影できる初のロボットテストベッドである。
speed+は、欧州宇宙機関(esa)のadvanced conceptsチームと共同で、合成画像で訓練されたスペースベースmlモデルのロバスト性を評価し比較するために、近く予定されている国際衛星ポーズ推定チャレンジで使用される。
関連論文リスト
- Bridging Domain Gap for Flight-Ready Spaceborne Vision [4.14360329494344]
この研究は、既知の非協力的なターゲット宇宙船の単眼的なポーズ推定のためのニューラルネットワーク(NN)であるSpacecraft Pose Network v3(SPNv3)を提示する。
SPNv3は、オフラインのトレーニングや地上での検証で観測されていない、宇宙で撮影された画像に堅牢性を提供しながら、計算的に効率的であるように設計され、訓練されている。
実験により、最後のSPNv3は、コンピュータ生成合成画像のみを訓練しながら、ロボットテストベッドからのハードウェア・イン・ループ画像に対して、最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2024-09-18T02:56:50Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - SPIN: Spacecraft Imagery for Navigation [8.155713824482767]
本研究では、2つの宇宙船間の相対航法のためのオープンソースのリアルな宇宙船画像生成ツールSPINを提案する。
SPINはさまざまな地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
実空間条件をシミュレートする一般的なテストベッドデータにおいて,平均誤差を50%削減することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:35:39Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft [0.0]
宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
論文 参考訳(メタデータ) (2022-11-22T01:30:40Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Vision-based Neural Scene Representations for Spacecraft [1.0323063834827415]
高度なミッションコンセプトでは、宇宙船は内部の近くの軌道上の物体のポーズと形状をモデル化する必要があります。
ニューラルシーン表現における最近の研究は、光学画像から汎用的な3次元シーンを推定する有望な結果を示している。
NeRFとGRAFのポテンシャルを比較し、評価し、新しいビューをレンダリングし、2つの異なる宇宙船の3D形状を抽出します。
論文 参考訳(メタデータ) (2021-05-11T08:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。