論文の概要: UCC: Uncertainty guided Cross-head Co-training for Semi-Supervised
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2205.10334v1
- Date: Fri, 20 May 2022 17:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:32:36.479936
- Title: UCC: Uncertainty guided Cross-head Co-training for Semi-Supervised
Semantic Segmentation
- Title(参考訳): UCC:半監督セマンティックセグメンテーションのためのクロスヘッドコトレーニング
- Authors: Jiashuo Fan, Bin Gao, Huan Jin, Lihui Jiang
- Abstract要約: 半教師付きセマンティックセグメンテーションのための新しい学習フレームワークUncertainty Guided Cross-head Co-training(UCC)を提案する。
当社のフレームワークでは,共有エンコーダ内の弱体化と強体化を導入して,一貫性と自己学習のメリットを自然に組み合わせたコトレーニングを実現している。
我々の手法は、最先端の半教師付きセマンティックセグメンテーション法よりもはるかに優れている。
- 参考スコア(独自算出の注目度): 2.6324267940354655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have witnessed great successes in semantic
segmentation, which requires a large number of labeled data for training. We
present a novel learning framework called Uncertainty guided Cross-head
Co-training (UCC) for semi-supervised semantic segmentation. Our framework
introduces weak and strong augmentations within a shared encoder to achieve
co-training, which naturally combines the benefits of consistency and
self-training. Every segmentation head interacts with its peers and, the weak
augmentation result is used for supervising the strong. The consistency
training samples' diversity can be boosted by Dynamic Cross-Set Copy-Paste
(DCSCP), which also alleviates the distribution mismatch and class imbalance
problems. Moreover, our proposed Uncertainty Guided Re-weight Module (UGRM)
enhances the self-training pseudo labels by suppressing the effect of the
low-quality pseudo labels from its peer via modeling uncertainty. Extensive
experiments on Cityscapes and PASCAL VOC 2012 demonstrate the effectiveness of
our UCC. Our approach significantly outperforms other state-of-the-art
semi-supervised semantic segmentation methods. It achieves 77.17$\%$, 76.49$\%$
mIoU on Cityscapes and PASCAL VOC 2012 datasets respectively under 1/16
protocols, which are +10.1$\%$, +7.91$\%$ better than the supervised baseline.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はセマンティックセグメンテーションにおいて大きな成功を収めており、トレーニングには大量のラベル付きデータが必要である。
半教師付きセマンティックセグメンテーションのための新しい学習フレームワークUncertainty Guided Cross-head Co-training(UCC)を提案する。
当社のフレームワークでは,共有エンコーダ内の弱体化と強体化を導入して,一貫性と自己学習のメリットを自然に組み合わせたコトレーニングを実現している。
全てのセグメンテーションヘッドは仲間と相互作用し、弱い増強結果は強者を監視するために使用される。
一貫性トレーニングサンプルの多様性は、動的クロスセットコピーペースト(DCSCP)によって向上し、分散ミスマッチやクラス不均衡の問題を軽減することができる。
さらに,提案するUncertainty Guided Re-weight Module (UGRM) は,低品質な擬似ラベルの影響をモデリングの不確実性を通じて抑制することにより,自己学習型擬似ラベルを向上する。
都市景観とPASCAL VOC 2012に関する大規模な実験により,UCCの有効性が示された。
我々のアプローチは他の最先端の半教師付きセマンティクスセグメンテーション法を大きく上回っている。
市景観とパスカルvoc 2012のデータセットはそれぞれ1/16のプロトコルで77.17$\%$, 76.49$\%$ miouとなり、教師付きベースラインよりも+10.1$\%$, +7.91$$$$$$$である。
関連論文リスト
- CRMSP: A Semi-supervised Approach for Key Information Extraction with Class-Rebalancing and Merged Semantic Pseudo-Labeling [10.886757419138343]
CRMSP(Semantic Pseudo-Labeling)によるクラスリバランシングとマージされたセマンティックPseudo-Labeling)によるKIEのための新しい半教師付きアプローチを提案する。
CRPモジュールは、擬似ラベルを再バランスするために再重み付け要素を導入し、テールクラスに注意を向ける。
MSPモジュールはMerged Prototypes (MP) にサンプルを割り当てることでラベルなしデータのテール特徴をクラスタ化する
論文 参考訳(メタデータ) (2024-07-19T07:41:26Z) - ECAP: Extensive Cut-and-Paste Augmentation for Unsupervised Domain
Adaptive Semantic Segmentation [4.082799056366928]
本稿では,データ拡張を通じて信頼性の高い擬似ラベルを活用するための広範囲なカット・アンド・ペースト戦略(ECAP)を提案する。
ECAPはトレーニングを通じて擬似ラベル付きターゲットサンプルのメモリバンクを保持し、現在のトレーニングバッチに最も自信のあるサンプルをカット&ペーストする。
我々は,最近のMIC法に基づいてECPを実装し,その性能を2つの合成-実領域適応ベンチマークで向上させる。
論文 参考訳(メタデータ) (2024-03-06T17:06:07Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Guided Point Contrastive Learning for Semi-supervised Point Cloud
Semantic Segmentation [90.2445084743881]
そこで本研究では,モデル性能を向上させるために,未ラベルの点群をトレーニングに採用するための半教師付き点群セマンティックセマンティックセマンティックセマンティクスを提案する。
近年の自己監督型タスクのコントラスト損失に触発されて,特徴表現とモデル一般化能力を高めるためのガイド付きポイントコントラスト損失を提案する。
論文 参考訳(メタデータ) (2021-10-15T16:38:54Z) - Adaptive Affinity Loss and Erroneous Pseudo-Label Refinement for Weakly
Supervised Semantic Segmentation [48.294903659573585]
本稿では,多段階アプローチの親和性学習を単一段階モデルに組み込むことを提案する。
深層ニューラルネットワークは、トレーニングフェーズで包括的なセマンティック情報を提供するために使用される。
提案手法の有効性を評価するため,PASCAL VOC 2012データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-08-03T07:48:33Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。