論文の概要: A Spacecraft Dataset for Detection, Segmentation and Parts Recognition
- arxiv url: http://arxiv.org/abs/2106.08186v1
- Date: Tue, 15 Jun 2021 14:36:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-16 15:10:21.641866
- Title: A Spacecraft Dataset for Detection, Segmentation and Parts Recognition
- Title(参考訳): 検出、セグメンテーション、部品認識のための宇宙船データセット
- Authors: Dung Anh Hoang and Bo Chen and Tat-Jun Chin
- Abstract要約: 本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
- 参考スコア(独自算出の注目度): 42.27081423489484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtually all aspects of modern life depend on space technology. Thanks to
the great advancement of computer vision in general and deep learning-based
techniques in particular, over the decades, the world witnessed the growing use
of deep learning in solving problems for space applications, such as
self-driving robot, tracers, insect-like robot on cosmos and health monitoring
of spacecraft. These are just some prominent examples that has advanced space
industry with the help of deep learning. However, the success of deep learning
models requires a lot of training data in order to have decent performance,
while on the other hand, there are very limited amount of publicly available
space datasets for the training of deep learning models. Currently, there is no
public datasets for space-based object detection or instance segmentation,
partly because manually annotating object segmentation masks is very time
consuming as they require pixel-level labelling, not to mention the challenge
of obtaining images from space. In this paper, we aim to fill this gap by
releasing a dataset for spacecraft detection, instance segmentation and part
recognition. The main contribution of this work is the development of the
dataset using images of space stations and satellites, with rich annotations
including bounding boxes of spacecrafts and masks to the level of object parts,
which are obtained with a mixture of automatic processes and manual efforts. We
also provide evaluations with state-of-the-art methods in object detection and
instance segmentation as a benchmark for the dataset. The link for downloading
the proposed dataset can be found on
https://github.com/Yurushia1998/SatelliteDataset.
- Abstract(参考訳): 現代の生活のあらゆる側面は宇宙技術に依存している。
一般のコンピュータビジョンの進歩と深層学習に基づく技術のおかげで、世界は数十年にわたって、自律型ロボット、トレーサ、宇宙での昆虫のようなロボット、宇宙船の健康モニタリングといった宇宙用途の問題解決にディープラーニングの利用が増えているのを目撃した。
これらは、深層学習の助けを借りた先進的な宇宙産業の例である。
しかし、ディープラーニングモデルの成功には、適切なパフォーマンスを得るために多くのトレーニングデータが必要であるが、一方で、ディープラーニングモデルのトレーニングのための公開スペースデータセットは、非常に限られている。
現在、空間ベースのオブジェクト検出やインスタンスセグメンテーションのためのパブリックデータセットは存在しないが、それは部分的には、オブジェクトセグメンテーションマスクを手動でアノテートするのに非常に時間がかかるためである。
本稿では,宇宙機検出,インスタンス分割,部分認識のためのデータセットをリリースすることにより,このギャップを埋めることを目的とする。
この研究の主な貢献は、宇宙ステーションや衛星の画像を用いたデータセットの開発であり、自動的なプロセスと手動の作業の混合によって得られる、物体部分のレベルへの宇宙船やマスクのバウンディングボックスを含む、豊富なアノテーションを備えている。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端手法による評価も提供する。
提案されたデータセットをダウンロードするリンクはhttps://github.com/Yurushia1998/SatelliteDatasetにある。
関連論文リスト
- SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - AstroVision: Towards Autonomous Feature Detection and Description for
Missions to Small Bodies Using Deep Learning [14.35670544436183]
本稿では,過去および現在進行中の16個の小天体の115,970個の濃密な注釈付き実画像からなる大規模データセットAstroVisionを紹介する。
我々はAstroVisionを活用し、標準化されたベンチマークのセットを開発し、手工芸品とデータ駆動型特徴検出および記述方法の徹底的な評価を行う。
次に、最先端の深い特徴検出・記述ネットワークのエンドツーエンドトレーニングにAstroVisionを使用し、複数のベンチマークの性能向上を実証する。
論文 参考訳(メタデータ) (2022-08-03T13:18:44Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - DeepSatData: Building large scale datasets of satellite images for
training machine learning models [77.17638664503215]
本稿では,機械学習モデルの学習のための衛星画像データセットの自動生成のための設計検討を行う。
本稿では,ニューラルネットワークの深層学習と評価の観点から直面する課題について論じる。
論文 参考訳(メタデータ) (2021-04-28T15:13:12Z) - SPARK: SPAcecraft Recognition leveraging Knowledge of Space Environment [10.068428438297563]
本稿では、SPARKデータセットを新しいユニークな空間オブジェクトマルチモーダルイメージデータセットとして提案する。
SPARKデータセットは、現実的な宇宙シミュレーション環境下で生成される。
1モードあたり約150kの画像、RGBと深さ、宇宙船とデブリの11のクラスを提供する。
論文 参考訳(メタデータ) (2021-04-13T07:16:55Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Auxiliary-task learning for geographic data with autoregressive
embeddings [1.4823143667165382]
本研究では,空間データの自己回帰性に関する情報を学習プロセスに直接埋め込む手法であるSXLを提案する。
局所空間自己相関の一般的な尺度である局所モランIを用いて、局所空間効果の方向と大きさを学習する。
我々は,教師なしおよび教師なしの学習タスクにおいて,ニューラルネットワークのトレーニングを継続的に改善する方法について強調する。
論文 参考訳(メタデータ) (2020-06-18T12:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。