論文の概要: Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2203.02792v1
- Date: Sat, 5 Mar 2022 17:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:21:21.310047
- Title: Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation
- Title(参考訳): 半教師付きセマンティックセマンティックセグメンテーションにおける空間ワーピングの相違
- Authors: Cong Cao, Tianwei Lin, Dongliang He, Fu Li, Huanjing Yue, Jingyu Yang,
Errui Ding
- Abstract要約: 本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
- 参考スコア(独自算出の注目度): 70.2166826794421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common challenge posed to robust semantic segmentation is the expensive
data annotation cost. Existing semi-supervised solutions show great potential
toward solving this problem. Their key idea is constructing consistency
regularization with unsupervised data augmentation from unlabeled data for
model training. The perturbations for unlabeled data enable the consistency
training loss, which benefits semi-supervised semantic segmentation. However,
these perturbations destroy image context and introduce unnatural boundaries,
which is harmful for semantic segmentation. Besides, the widely adopted
semi-supervised learning framework, i.e. mean-teacher, suffers performance
limitation since the student model finally converges to the teacher model. In
this paper, first of all, we propose a context friendly differentiable
geometric warping to conduct unsupervised data augmentation; secondly, a novel
adversarial dual-student framework is proposed to improve the Mean-Teacher from
the following two aspects: (1) dual student models are learnt independently
except for a stabilization constraint to encourage exploiting model
diversities; (2) adversarial training scheme is applied to both students and
the discriminators are resorted to distinguish reliable pseudo-label of
unlabeled data for self-training. Effectiveness is validated via extensive
experiments on PASCAL VOC2012 and Citescapes. Our solution significantly
improves the performance and state-of-the-art results are achieved on both
datasets. Remarkably, compared with fully supervision, our solution achieves
comparable mIoU of 73.4% using only 12.5% annotated data on PASCAL VOC2012.
- Abstract(参考訳): 堅牢なセマンティックセグメンテーションに共通する課題は、高価なデータアノテーションコストである。
既存の半教師付きソリューションは、この問題を解決する大きな可能性を示している。
彼らのキーとなる考え方は、モデルトレーニングのためのラベルなしデータからの教師なしデータ拡張による一貫性の正規化である。
ラベルなしデータの摂動は、半教師付きセマンティックセグメンテーションの恩恵を受ける一貫性トレーニング損失を可能にする。
しかし、これらの摂動はイメージコンテキストを破壊し、意味的セグメンテーションに有害な非自然境界を導入する。
さらに,学生モデルが最終的に教師モデルに収束すると,一般教師による半教師学習フレームワークである平均教師は,パフォーマンスの制限を受ける。
In this paper, first of all, we propose a context friendly differentiable geometric warping to conduct unsupervised data augmentation; secondly, a novel adversarial dual-student framework is proposed to improve the Mean-Teacher from the following two aspects: (1) dual student models are learnt independently except for a stabilization constraint to encourage exploiting model diversities; (2) adversarial training scheme is applied to both students and the discriminators are resorted to distinguish reliable pseudo-label of unlabeled data for self-training.
PASCAL VOC2012とCitescapesの広範な実験を通じて有効性を検証する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
注目すべきは、完全な監督と比較すると、PASCAL VOC2012の注釈付きデータをわずか12.5%使用して、73.4%のmIoUを達成したことです。
関連論文リスト
- Effective and Robust Adversarial Training against Data and Label Corruptions [35.53386268796071]
データ摂動とラベルノイズによる破損は、信頼できない情報源からのデータセットに多い。
我々は,2種類の汚職を同時に扱うための,効果的かつロバストな適応訓練フレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-07T10:53:20Z) - Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Cross-head mutual Mean-Teaching for semi-supervised medical image
segmentation [6.738522094694818]
SSMIS(Semi-supervised Medical Image segmentation)は、限られたラベル付きデータと豊富なラベルなしデータを活用することで、大幅な進歩を目撃している。
既存のSOTA(State-of-the-art)手法は、ラベルなしデータのラベルを正確に予測する際の課題に直面する。
強弱データ拡張を組み込んだ新しいクロスヘッド相互学習ネットワーク(CMMT-Net)を提案する。
論文 参考訳(メタデータ) (2023-10-08T09:13:04Z) - Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data [27.75143621836449]
制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-02T01:07:14Z) - Deep Semi-supervised Learning with Double-Contrast of Features and
Semantics [2.2230089845369094]
本稿では,エンド・ツー・エンドの半教師あり学習における意味と特徴の二重コントラストを提案する。
我々は情報理論を活用し、意味論と特徴の二重コントラストの合理性を説明する。
論文 参考訳(メタデータ) (2022-11-28T09:08:19Z) - Dual-Teacher: Integrating Intra-domain and Inter-domain Teachers for
Annotation-efficient Cardiac Segmentation [65.81546955181781]
本稿では,新しい半教師付きドメイン適応手法,すなわちDual-Teacherを提案する。
学生モデルは、2つの教師モデルによってラベル付けされていない対象データとラベル付けされた情報源データの知識を学習する。
提案手法では, ラベルなしデータとモダリティ間データとを並列に利用でき, 性能が向上することを示した。
論文 参考訳(メタデータ) (2020-07-13T10:00:44Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。