論文の概要: Three Heads Are Better Than One: Complementary Experts for Long-Tailed
Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2312.15702v1
- Date: Mon, 25 Dec 2023 11:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:53:55.157939
- Title: Three Heads Are Better Than One: Complementary Experts for Long-Tailed
Semi-supervised Learning
- Title(参考訳): 3つの頭は1より優れている:長期学習のための補完的専門家
- Authors: Chengcheng Ma, Ismail Elezi, Jiankang Deng, Weiming Dong, Changsheng
Xu
- Abstract要約: 本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 79.86802448486334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the challenging problem of Long-Tailed Semi-Supervised Learning
(LTSSL) where labeled data exhibit imbalanced class distribution and unlabeled
data follow an unknown distribution. Unlike in balanced SSL, the generated
pseudo-labels are skewed towards head classes, intensifying the training bias.
Such a phenomenon is even amplified as more unlabeled data will be mislabeled
as head classes when the class distribution of labeled and unlabeled datasets
are mismatched. To solve this problem, we propose a novel method named
ComPlementary Experts (CPE). Specifically, we train multiple experts to model
various class distributions, each of them yielding high-quality pseudo-labels
within one form of class distribution. Besides, we introduce Classwise Batch
Normalization for CPE to avoid performance degradation caused by feature
distribution mismatch between head and non-head classes. CPE achieves
state-of-the-art performances on CIFAR-10-LT, CIFAR-100-LT, and STL-10-LT
dataset benchmarks. For instance, on CIFAR-10-LT, CPE improves test accuracy by
over >2.22% compared to baselines. Code is available at
https://github.com/machengcheng2016/CPE-LTSSL.
- Abstract(参考訳): 我々は,ラベル付きデータが不均衡なクラス分布を示し,ラベルなしデータが未知の分布に従う,long-tailed semi-supervised learning (ltssl)の課題に対処する。
バランスの取れたSSLとは異なり、生成された擬似ラベルはヘッドクラスにスキューされ、トレーニングバイアスが強化される。
このような現象はさらに増幅され、ラベル付きデータセットとラベル付きデータセットのクラス分布がミスマッチした場合、より多くのラベル付きデータがヘッドクラスとして誤ってラベル付けされる。
そこで本研究では,ComPlementary Experts (CPE) という新しい手法を提案する。
具体的には、複数の専門家に様々なクラス分布をモデル化するよう訓練し、それぞれが高品質な擬似ラベルを1種類のクラス分布で生成する。
さらに,頭部クラスと非頭部クラス間の特徴分布ミスマッチによる性能劣化を回避するために,CPEのクラスワイドバッチ正規化を導入する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
例えば、CIFAR-10-LTでは、CPEはベースラインよりも2.2%以上精度が向上している。
コードはhttps://github.com/machengcheng2016/CPE-LTSSLで公開されている。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Boosting Consistency in Dual Training for Long-Tailed Semi-Supervised Learning [49.07038093130949]
Long-tailed semi-supervised learning (LTSSL)アルゴリズムは、ラベル付きデータとラベルなしデータのクラス分布がほぼ同一であると仮定する。
未知のクラス分布からラベル付けされていないデータを効果的に活用できる新しい簡易手法を提案する。
BOATは様々な標準LTSSLベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-19T03:35:26Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Federated Semi-Supervised Learning with Class Distribution Mismatch [34.46190258291223]
フェデレート半教師付き学習(Fed-SSL)はラベル付きデータとラベルなしデータの両方を完全に活用するための魅力的なソリューションである。
我々は、Fed-SSLにおけるクラス分散ミスマッチ問題を効果的に緩和できる2つの適切な正規化項を導入する。
我々は、分散低減と正規化平均化技術を活用して、新しいFed-SSLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-29T14:18:20Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。