論文の概要: Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft
- arxiv url: http://arxiv.org/abs/2211.11941v1
- Date: Tue, 22 Nov 2022 01:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:42:27.524767
- Title: Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft
- Title(参考訳): 無人宇宙機画像のセマンティック画像分割のための合成データ
- Authors: William S. Armstrong, Spencer Drakontaidis, Nicholas Lui
- Abstract要約: 宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Images of spacecraft photographed from other spacecraft operating in outer
space are difficult to come by, especially at a scale typically required for
deep learning tasks. Semantic image segmentation, object detection and
localization, and pose estimation are well researched areas with powerful
results for many applications, and would be very useful in autonomous
spacecraft operation and rendezvous. However, recent studies show that these
strong results in broad and common domains may generalize poorly even to
specific industrial applications on earth. To address this, we propose a method
for generating synthetic image data that are labelled for semantic
segmentation, generalizable to other tasks, and provide a prototype synthetic
image dataset consisting of 2D monocular images of unmanned spacecraft, in
order to enable further research in the area of autonomous spacecraft
rendezvous. We also present a strong benchmark result (S{\o}rensen-Dice
coefficient 0.8723) on these synthetic data, suggesting that it is feasible to
train well-performing image segmentation models for this task, especially if
the target spacecraft and its configuration are known.
- Abstract(参考訳): 宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は、特に深層学習に必要なスケールでは、入手が困難である。
セマンティックイメージのセグメンテーション、オブジェクト検出、ローカライゼーション、ポーズ推定は、多くのアプリケーションで強力な結果をもたらすよく研究された領域であり、自律的な宇宙船の運用やランデブーにおいて非常に有用である。
しかし、近年の研究では、広範・共通領域におけるこれらの強い成果が、地球上の特定の産業応用にも及ばないことが示されている。
そこで本研究では, セマンティックセグメンテーションのためにラベル付けされた合成画像データを生成する手法を提案し, 無人宇宙船の2次元単眼画像からなる合成画像データセットの試作を行い, 自律宇宙船のランデブー領域のさらなる研究を可能にする。
また、これらの合成データに対して強力なベンチマーク結果(S{\o}rensen-Dice coefficient 0.8723)を提示し、特にターゲット宇宙船とその構成が分かっていれば、この課題に対して良好な画像分割モデルを訓練することは可能であることを示唆した。
関連論文リスト
- SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Incorporating Texture Information into Dimensionality Reduction for
High-Dimensional Images [65.74185962364211]
距離ベース次元削減手法に周辺情報を組み込む手法を提案する。
画像パッチを比較する異なる手法の分類に基づいて,様々なアプローチを探索する。
論文 参考訳(メタデータ) (2022-02-18T13:17:43Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - SPARK: SPAcecraft Recognition leveraging Knowledge of Space Environment [10.068428438297563]
本稿では、SPARKデータセットを新しいユニークな空間オブジェクトマルチモーダルイメージデータセットとして提案する。
SPARKデータセットは、現実的な宇宙シミュレーション環境下で生成される。
1モードあたり約150kの画像、RGBと深さ、宇宙船とデブリの11のクラスを提供する。
論文 参考訳(メタデータ) (2021-04-13T07:16:55Z) - Generating Synthetic Multispectral Satellite Imagery from Sentinel-2 [3.4797121357690153]
本研究では,Sentinel-2データに基づくマルチ解像度マルチスペクトル画像を生成する生成モデルを提案する。
得られた合成画像は、人間によって実際のものと区別できない。
論文 参考訳(メタデータ) (2020-12-05T19:41:33Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。