論文の概要: Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2210.10426v1
- Date: Wed, 19 Oct 2022 09:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:47:25.194239
- Title: Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation
- Title(参考訳): 半監督セマンティックセグメンテーションのための擬似ラベルノイズ抑制技術
- Authors: Sebastian Scherer, Robin Sch\"on and Rainer Lienhart
- Abstract要約: 半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
- 参考スコア(独自算出の注目度): 21.163070161951868
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semi-supervised learning (SSL) can reduce the need for large labelled
datasets by incorporating unlabelled data into the training. This is
particularly interesting for semantic segmentation, where labelling data is
very costly and time-consuming. Current SSL approaches use an initially
supervised trained model to generate predictions for unlabelled images, called
pseudo-labels, which are subsequently used for training a new model from
scratch. Since the predictions usually do not come from an error-free neural
network, they are naturally full of errors. However, training with partially
incorrect labels often reduce the final model performance. Thus, it is crucial
to manage errors/noise of pseudo-labels wisely. In this work, we use three
mechanisms to control pseudo-label noise and errors: (1) We construct a solid
base framework by mixing images with cow-patterns on unlabelled images to
reduce the negative impact of wrong pseudo-labels. Nevertheless, wrong
pseudo-labels still have a negative impact on the performance. Therefore, (2)
we propose a simple and effective loss weighting scheme for pseudo-labels
defined by the feedback of the model trained on these pseudo-labels. This
allows us to soft-weight the pseudo-label training examples based on their
determined confidence score during training. (3) We also study the common
practice to ignore pseudo-labels with low confidence and empirically analyse
the influence and effect of pseudo-labels with different confidence ranges on
SSL and the contribution of pseudo-label filtering to the achievable
performance gains. We show that our method performs superior to state
of-the-art alternatives on various datasets. Furthermore, we show that our
findings also transfer to other tasks such as human pose estimation. Our code
is available at https://github.com/ChristmasFan/SSL_Denoising_Segmentation.
- Abstract(参考訳): 半教師付き学習(SSL)は、トレーニングに不正なデータを組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
これは、データラベリングが非常に費用がかかり、時間がかかるセマンティックセグメンテーションにおいて特に興味深い。
現在のSSLアプローチでは、初期教師付きトレーニングされたモデルを使用して、擬似ラベルと呼ばれる未ラベルのイメージの予測を生成し、その後、新しいモデルをスクラッチからトレーニングするために使用される。
予測は通常、エラーのないニューラルネットワークから来ないため、自然にエラーに満ちている。
しかし、部分的に不正確なラベルを持つトレーニングは、しばしば最終モデルのパフォーマンスを低下させる。
したがって、疑似ラベルのエラー/ノイズを賢明に管理することが重要である。
本研究では,疑似ラベルノイズと誤差を制御する3つのメカニズムを用いて,(1)ラベルなし画像に牛のパターンとイメージを混合することにより,誤った疑似ラベルの悪影響を低減し,堅固なベースフレームワークを構築する。
それでも、間違った擬似ラベルはパフォーマンスに悪影響を及ぼす。
そこで本研究では,擬似ラベルを訓練したモデルのフィードバックによって定義される擬似ラベルに対する簡易かつ効果的な損失重み付け手法を提案する。
これにより、トレーニング中に決定された信頼スコアに基づいて、擬似ラベルトレーニング例をソフトウェイトにすることができる。
また,信頼度が低い擬似ラベルを無視し,SSLに対する信頼度が異なる擬似ラベルの影響と効果を実証的に分析し,達成可能な性能向上への擬似ラベルフィルタリングの寄与について検討した。
提案手法は,様々なデータセットにおける最先端の代替手法よりも優れていることを示す。
また,本研究の成果は,人間のポーズ推定など他の課題にも反映されている。
私たちのコードはhttps://github.com/ChristmasFan/SSL_Denoising_Segmentationで利用可能です。
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Doubly Robust Self-Training [46.168395767948965]
本稿では,新しい半教師付きアルゴリズムである二重頑健な自己学習を導入する。
通常の自己学習ベースラインよりも2倍頑健な損失の優位性を実証する。
論文 参考訳(メタデータ) (2023-06-01T00:57:16Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。