論文の概要: A New Dataset and Performance Benchmark for Real-time Spacecraft Segmentation in Onboard Flight Computers
- arxiv url: http://arxiv.org/abs/2507.10775v1
- Date: Mon, 14 Jul 2025 20:02:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.872133
- Title: A New Dataset and Performance Benchmark for Real-time Spacecraft Segmentation in Onboard Flight Computers
- Title(参考訳): 飛行コンピュータにおける実時間宇宙機セグメンテーションのための新しいデータセットと性能ベンチマーク
- Authors: Jeffrey Joan Sam, Janhavi Sathe, Nikhil Chigali, Naman Gupta, Radhey Ruparel, Yicheng Jiang, Janmajay Singh, James W. Berck, Arko Barman,
- Abstract要約: 我々は、実際の宇宙船モデルを用いて作成した、約64kの注釈付き宇宙船画像の新しいデータセットを提示する。
実世界の画像取得において、カメラの歪みやノイズを模倣するために、様々な種類のノイズや歪みを画像に追加した。
得られたモデルは、よく定義されたハードウェアと推論時間制約の下でテストされ、Diceスコアが0.92、Hausdorff距離が0.69、推論時間が0.5秒に達した。
- 参考スコア(独自算出の注目度): 2.8519379677270997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spacecraft deployed in outer space are routinely subjected to various forms of damage due to exposure to hazardous environments. In addition, there are significant risks to the subsequent process of in-space repairs through human extravehicular activity or robotic manipulation, incurring substantial operational costs. Recent developments in image segmentation could enable the development of reliable and cost-effective autonomous inspection systems. While these models often require large amounts of training data to achieve satisfactory results, publicly available annotated spacecraft segmentation data are very scarce. Here, we present a new dataset of nearly 64k annotated spacecraft images that was created using real spacecraft models, superimposed on a mixture of real and synthetic backgrounds generated using NASA's TTALOS pipeline. To mimic camera distortions and noise in real-world image acquisition, we also added different types of noise and distortion to the images. Finally, we finetuned YOLOv8 and YOLOv11 segmentation models to generate performance benchmarks for the dataset under well-defined hardware and inference time constraints to mimic real-world image segmentation challenges for real-time onboard applications in space on NASA's inspector spacecraft. The resulting models, when tested under these constraints, achieved a Dice score of 0.92, Hausdorff distance of 0.69, and an inference time of about 0.5 second. The dataset and models for performance benchmark are available at https://github.com/RiceD2KLab/SWiM.
- Abstract(参考訳): 宇宙空間に配備された宇宙船は、危険環境への曝露によって様々な損傷を受ける。
加えて、人体外活動やロボット操作による宇宙での修理のプロセスに重大なリスクがあり、かなりの運用コストがかかる。
画像セグメンテーションの最近の発展は、信頼性と費用対効果の高い自律検査システムの開発を可能にする。
これらのモデルは、良好な結果を得るために大量のトレーニングデータを必要とすることが多いが、一般公開されたアノテートされた宇宙船セグメンテーションデータは非常に少ない。
ここでは、NASAのTTALOSパイプラインで生成された実際の背景と合成背景を重畳した実際の宇宙船モデルを用いて、64k近い注釈付き宇宙船画像のデータセットを提示する。
実世界の画像取得において、カメラの歪みやノイズを模倣するために、様々な種類のノイズや歪みを画像に追加した。
最後に、YOLOv8とYOLOv11セグメンテーションモデルを微調整し、明確に定義されたハードウェアと推論時間制約の下でデータセットのパフォーマンスベンチマークを生成し、NASAのインスペクタの宇宙空間におけるリアルタイムオンボードアプリケーションのための実世界の画像セグメンテーション課題を模倣した。
これらの制約の下で試験された結果、Diceスコアは0.92、Hausdorff距離は0.69、推論時間は0.5秒に達した。
パフォーマンスベンチマークのデータセットとモデルはhttps://github.com/RiceD2KLab/SWiM.comで公開されている。
関連論文リスト
- High Performance Space Debris Tracking in Complex Skylight Backgrounds with a Large-Scale Dataset [48.32788509877459]
高精度なデブリ追跡を実現するために,深層学習に基づく空間デブリ追跡ネットワーク(SDT-Net)を提案する。
SDT-Netはデブリの特徴を効果的に表現し、エンドツーエンドのモデル学習の効率性と安定性を高める。
データセットとコードはまもなくリリースされます。
論文 参考訳(メタデータ) (2025-06-03T08:30:25Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - SPIN: Spacecraft Imagery for Navigation [10.306879210363512]
実際の宇宙運用条件下で取得されるデータの不足は、学習ベースのビジュアルナビゲーションアルゴリズムを開発する上で大きな課題となる。
宇宙空間における幅広い視覚的ナビゲーションシナリオをサポートするために設計されたオープンソースツールであるSPINを提案する。
SPINは複数の地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
論文 参考訳(メタデータ) (2024-06-11T17:35:39Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - LROC-PANGU-GAN: Closing the Simulation Gap in Learning Crater
Segmentation with Planetary Simulators [5.667566032625522]
外国の惑星体への探査機の着陸は、危険を確実に識別し、避けることが重要である。
この問題に対するディープラーニングの最近の応用は有望な結果を示している。
しかしながら、これらのモデルは、注釈付きデータセットに対する明確な監督によってしばしば学習される。
本稿では,ラベルの忠実さを維持しつつ,この「現実主義」のギャップを埋めるシステムを提案する。
論文 参考訳(メタデータ) (2023-10-04T12:52:38Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - A Simulation-Augmented Benchmarking Framework for Automatic RSO Streak
Detection in Single-Frame Space Images [7.457841062817294]
大規模データセットが利用可能な場合、ディープ畳み込みニューラルネットワーク(DCNN)は、オブジェクト検出において優れたパフォーマンスを示している。
RSO検出のための新しいシミュレーション強化ベンチマークフレームワーク(SAB-RSOD)を紹介する。
本フレームワークでは,実空間画像をキャプチャするセンサのハードウェアパラメータを最大限に活用することにより,まず高忠実度RSOシミュレータを開発する。
次に,このシミュレータを用いて宇宙空間に多彩なROSを含む画像を生成し,自動的に注釈を付ける。
論文 参考訳(メタデータ) (2023-04-30T07:00:16Z) - Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft [0.0]
宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
論文 参考訳(メタデータ) (2022-11-22T01:30:40Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。