論文の概要: ST++: Make Self-training Work Better for Semi-supervised Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2106.05095v1
- Date: Wed, 9 Jun 2021 14:18:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:08:29.871727
- Title: ST++: Make Self-training Work Better for Semi-supervised Semantic
Segmentation
- Title(参考訳): ST++: 半教師付きセマンティックセグメンテーションで自己学習作業を改善する
- Authors: Lihe Yang, Wei Zhuo, Lei Qi, Yinghuan Shi, Yang Gao
- Abstract要約: 半教師付きセグメンテーションにおいて、自己学習 -- シンプルだが人気のあるフレームワーク -- がよりうまく機能できるかどうかを調査する。
より信頼性の高い未ラベル画像の選択と優先順位付けにより選択的な再学習を行う高度自己学習フレームワーク(ST++)を提案する。
その結果、提案したST++は、半教師付きモデルの性能を大幅に向上させ、Pascal VOC 2012とCityscapesベンチマークにおいて、既存のメソッドをはるかに上回っている。
- 参考スコア(独自算出の注目度): 23.207191521477654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate if we could make the self-training -- a simple
but popular framework -- work better for semi-supervised segmentation. Since
the core issue in semi-supervised setting lies in effective and efficient
utilization of unlabeled data, we notice that increasing the diversity and
hardness of unlabeled data is crucial to performance improvement. Being aware
of this fact, we propose to adopt the most plain self-training scheme coupled
with appropriate strong data augmentations on unlabeled data (namely ST) for
this task, which surprisingly outperforms previous methods under various
settings without any bells and whistles. Moreover, to alleviate the negative
impact of the wrongly pseudo labeled images, we further propose an advanced
self-training framework (namely ST++), that performs selective re-training via
selecting and prioritizing the more reliable unlabeled images. As a result, the
proposed ST++ boosts the performance of semi-supervised model significantly and
surpasses existing methods by a large margin on the Pascal VOC 2012 and
Cityscapes benchmark. Overall, we hope this straightforward and simple
framework will serve as a strong baseline or competitor for future works. Code
is available at https://github.com/LiheYoung/ST-PlusPlus.
- Abstract(参考訳): 本稿では, 半教師付きセグメンテーションにおいて, 自己学習, シンプルながら人気のあるフレームワークを, よりよく機能させることができるかを検討する。
半教師付きセッティングの中核的な問題は、ラベルなしデータの有効かつ効率的な利用にあるため、ラベルなしデータの多様性と硬さの増加は、パフォーマンス向上に不可欠である。
この事実に気付き、我々は、このタスクのために、ラベルのないデータ(すなわちst)に適切な強いデータ拡張を組み合わせた、最も単純な自己学習方式を採用することを提案している。
さらに,偽のラベル付き画像の悪影響を軽減するために,より信頼性の高いラベル付き画像の選択と優先順位付けにより選択的に再トレーニングを行う高度な自己学習フレームワーク(st++)を提案する。
その結果、st++は半教師付きモデルの性能を大幅に向上させ、pascal voc 2012とcityscapesベンチマークで既存のメソッドを大きく上回った。
全体として、この単純でシンプルなフレームワークが、将来の作業の強力なベースラインや競合となることを期待しています。
コードはhttps://github.com/LiheYoung/ST-PlusPlusで入手できる。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Improving Semi-Supervised Semantic Segmentation with Dual-Level Siamese Structure Network [7.438140196173472]
画素単位のコントラスト学習のための二重レベルシームス構造ネットワーク(DSSN)を提案する。
弱強監督のための新しいクラス認識型擬似ラベル選択戦略を導入する。
提案手法は,2つのデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-26T03:30:28Z) - SEPT: Towards Scalable and Efficient Visual Pre-Training [11.345844145289524]
自己教師付き事前トレーニングは、ダウンストリームタスクのパフォーマンスを改善するために大規模なラベルなしデータを活用する大きな可能性を示している。
タスク固有の自己教師型事前学習フレームワークを構築し,対象タスクに類似した分布を持つ未ラベルサンプルの事前学習が,大幅な性能向上をもたらすという単純な仮説に基づいて構築する。
論文 参考訳(メタデータ) (2022-12-11T11:02:11Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。