論文の概要: DualMatch: Robust Semi-Supervised Learning with Dual-Level Interaction
- arxiv url: http://arxiv.org/abs/2310.16459v1
- Date: Wed, 25 Oct 2023 08:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:58:34.102472
- Title: DualMatch: Robust Semi-Supervised Learning with Dual-Level Interaction
- Title(参考訳): DualMatch: デュアルレベルインタラクションによるロバストな半教師付き学習
- Authors: Cong Wang, Xiaofeng Cao, Lanzhe Guo2, and Zenglin Shi
- Abstract要約: 従来の半教師付き学習手法は、通常、異なるデータ拡張ビューのモデル予測を単一レベルのインタラクション方法で一致させる。
本稿では,DualMatchと呼ばれる新しいSSL方式を提案する。
標準SSL設定では、SOTA法と比較して9%のエラー削減が達成されるが、より困難なクラス不均衡設定でも6%のエラー削減が達成できる。
- 参考スコア(独自算出の注目度): 10.775623936099173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning provides an expressive framework for exploiting
unlabeled data when labels are insufficient. Previous semi-supervised learning
methods typically match model predictions of different data-augmented views in
a single-level interaction manner, which highly relies on the quality of
pseudo-labels and results in semi-supervised learning not robust. In this
paper, we propose a novel SSL method called DualMatch, in which the class
prediction jointly invokes feature embedding in a dual-level interaction
manner. DualMatch requires consistent regularizations for data augmentation,
specifically, 1) ensuring that different augmented views are regulated with
consistent class predictions, and 2) ensuring that different data of one class
are regulated with similar feature embeddings. Extensive experiments
demonstrate the effectiveness of DualMatch. In the standard SSL setting, the
proposal achieves 9% error reduction compared with SOTA methods, even in a more
challenging class-imbalanced setting, the proposal can still achieve 6% error
reduction. Code is available at https://github.com/CWangAI/DualMatch
- Abstract(参考訳): 半教師付き学習はラベルが不十分なときにラベル付きデータを活用するための表現力のあるフレームワークを提供する。
従来の半教師あり学習法は、データ提供された異なるビューのモデル予測を単一レベルのインタラクション方式でマッチングするが、これは擬似ラベルの品質に大きく依存しており、半教師あり学習は堅牢ではない。
本稿では,デュアルマッチと呼ばれる新しいssl手法を提案する。
DualMatchはデータ拡張に一貫性のある正規化を必要とする。
1)異なる拡張ビューが一貫したクラス予測で規制されること、及び
2) あるクラスの異なるデータが同様の機能埋め込みによって規制されることを保証する。
大規模な実験はDualMatchの有効性を示す。
標準SSL設定では、SOTA法と比較して9%のエラー削減が達成されるが、より困難なクラス不均衡設定でも6%のエラー削減が達成できる。
コードはhttps://github.com/CWangAI/DualMatchで入手できる。
関連論文リスト
- JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Boosting Semi-Supervised Learning by Exploiting All Unlabeled Data [21.6350640726058]
半教師付き学習(SSL)は、大きなラベル付きデータセットへの依存を緩和する大きな可能性を秘めているため、大きな注目を集めている。
エントロピー平均損失(EML)と適応負学習(ANL)の2つの新しい手法を提案する。
これらのテクニックをFixMatchと統合し、シンプルながら強力なフレームワークであるFullMatchを開発します。
論文 参考訳(メタデータ) (2023-03-20T12:44:11Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - CoMatch: Semi-supervised Learning with Contrastive Graph Regularization [86.84486065798735]
CoMatchは、支配的なアプローチを統一する、新しい半教師付き学習手法である。
複数のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-11-23T02:54:57Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。