論文の概要: S$^{5}$Mars: Semi-Supervised Learning for Mars Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2207.01200v4
- Date: Mon, 8 Apr 2024 01:11:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 05:56:30.459948
- Title: S$^{5}$Mars: Semi-Supervised Learning for Mars Semantic Segmentation
- Title(参考訳): S$^{5}$Mars: 火星セマンティックセグメンテーションのための半教師付き学習
- Authors: Jiahang Zhang, Lilang Lin, Zejia Fan, Wenjing Wang, Jiaying Liu,
- Abstract要約: 火星のセマンティックセグメンテーションは、ローバーの自律計画と安全な運転の基盤である重要な火星ビジョンタスクである。
優れたモデルを得るためには、ほとんどのディープラーニングメソッドが正確に要求する、十分な詳細かつ高信頼のデータアノテーションが欠如している。
本稿では,共同データと手法設計の観点からその解決策を提案する。
実験結果から,本手法は最先端のSSL手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 18.92602724896845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has become a powerful tool for Mars exploration. Mars terrain semantic segmentation is an important Martian vision task, which is the base of rover autonomous planning and safe driving. However, there is a lack of sufficient detailed and high-confidence data annotations, which are exactly required by most deep learning methods to obtain a good model. To address this problem, we propose our solution from the perspective of joint data and method design. We first present a newdataset S5Mars for Semi-SuperviSed learning on Mars Semantic Segmentation, which contains 6K high-resolution images and is sparsely annotated based on confidence, ensuring the high quality of labels. Then to learn from this sparse data, we propose a semi-supervised learning (SSL) framework for Mars image semantic segmentation, to learn representations from limited labeled data. Different from the existing SSL methods which are mostly targeted at the Earth image data, our method takes into account Mars data characteristics. Specifically, we first investigate the impact of current widely used natural image augmentations on Mars images. Based on the analysis, we then proposed two novel and effective augmentations for SSL of Mars segmentation, AugIN and SAM-Mix, which serve as strong augmentations to boost the model performance. Meanwhile, to fully leverage the unlabeled data, we introduce a soft-to-hard consistency learning strategy, learning from different targets based on prediction confidence. Experimental results show that our method can outperform state-of-the-art SSL approaches remarkably. Our proposed dataset is available at https://jhang2020.github.io/S5Mars.github.io/.
- Abstract(参考訳): 深層学習は火星探査の強力なツールとなっている。
火星の地形セマンティックセグメンテーションは、ローバーの自律計画と安全な運転の基礎となる重要な火星の視覚タスクである。
しかし、優れたモデルを得るためには、ほとんどのディープラーニングメソッドが正確に必要とする、十分な詳細な高信頼データアノテーションが欠如している。
この問題に対処するため,共同データと手法設計の観点から提案する手法を提案する。
まず,S5Mars for Semi-SuperviSed Learning on Mars Semantic Segmentationを提案する。
そして、このスパースデータから学習するために、限定ラベル付きデータから表現を学ぶために、火星画像セマンティックセグメンテーションのための半教師付き学習(SSL)フレームワークを提案する。
地球画像データを対象としている既存のSSL方式と異なり、火星データの特徴を考慮に入れている。
具体的には、現在広く使われている自然画像の増大が火星画像に与える影響を最初に調査する。
そこで本研究では,火星セグメンテーションのSSLであるAugINとSAM-Mixの2つの新規かつ効果的な拡張手法を提案する。
一方、ラベルのないデータを完全に活用するために、予測信頼度に基づいて異なる目標から学習するソフト・ツー・ハードの一貫性学習戦略を導入する。
実験結果から,本手法は最先端のSSL手法よりも優れていることがわかった。
提案したデータセットはhttps://jhang2020.github.io/S5Mars.github.io/で公開されている。
関連論文リスト
- MarsSeg: Mars Surface Semantic Segmentation with Multi-level Extractor and Connector [19.053126804261034]
本稿では,MarsSegと呼ばれる新しいエンコーダデコーダベースの火星セグメンテーションネットワークを提案する。
Mini-ASPPとPSAはシャドー機能拡張用に特別に設計されている。
SPPMは、高レベルのセマンティックカテゴリ関連情報の抽出を容易にする、機能強化のために使用される。
論文 参考訳(メタデータ) (2024-04-05T15:04:57Z) - Noise2Noise Denoising of CRISM Hyperspectral Data [6.502987568800912]
ノイズ2ノイズ4Mars (N2N4M) はCRISM画像からノイズを取り除くために導入された。
我々のモデルは自己教師型であり、ゼロノイズ対象データを必要としない。
これにより、提案された着陸地点を含む火星表面における重要な場所の詳細な分析が可能になる。
論文 参考訳(メタデータ) (2024-03-26T14:49:22Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - ConeQuest: A Benchmark for Cone Segmentation on Mars [9.036303895516745]
ConeQuestは、火星の円錐を識別する最初の専門家による公開データセットである。
本研究では,(i)空間一般化と(ii)コーンサイズ一般化という2つのベンチマークタスクを提案する。
論文 参考訳(メタデータ) (2023-11-15T02:33:08Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - Improving Contrastive Learning on Visually Homogeneous Mars Rover Images [3.206547922373737]
我々は、何十万もの未ラベルの火星地形画像に対して、対照的な学習が適用可能であることを示す。
対照的な学習は、任意の一対の異なる画像が異なる意味的内容を含んでいると仮定する。
1) 類似したセマンティックコンテンツを含む画像のクラスタを識別し,トレーニング中に偽陰性エラーを補正する,2) 異なる領域からのデータを混合して,トレーニングデータセット全体の視覚的多様性を高める,という,教師なしのディープクラスタリングステップを提案する。
論文 参考訳(メタデータ) (2022-10-17T16:26:56Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - Semi-Supervised Learning for Mars Imagery Classification and
Segmentation [35.103989798891476]
火星における機械ビジョンのための半教師付きフレームワークについて紹介する。
分類とセグメンテーションという2つの特定の課題を解決しようと試みている。
我々の学習戦略は、分類とセグメンテーションモデルを大幅に改善し、最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2022-06-05T13:55:10Z) - Embedding Earth: Self-supervised contrastive pre-training for dense land
cover classification [61.44538721707377]
本研究では,衛星画像の高可用性を活用するための自己監督型コントラスト事前学習法として,エンベディングアースを提案する。
提案手法による事前学習では, 25%の絶対mIoUが得られた。
学習した特徴は、異なる領域間で一般化され、提案した事前学習スキームの可能性を開放する。
論文 参考訳(メタデータ) (2022-03-11T16:14:14Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Large-scale Unsupervised Semantic Segmentation [163.3568726730319]
本稿では, 大規模無教師付きセマンティックセマンティックセグメンテーション (LUSS) の新たな課題を提案する。
ImageNetデータセットに基づいて、120万のトレーニング画像と40万の高品質なセマンティックセグメンテーションアノテーションを用いた画像Net-Sデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-06T15:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。