論文の概要: Leveraging Label Proportion Prior for Class-Imbalanced Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2603.02957v1
- Date: Tue, 03 Mar 2026 13:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.804653
- Title: Leveraging Label Proportion Prior for Class-Imbalanced Semi-Supervised Learning
- Title(参考訳): クラス不均衡半教師付き学習におけるラベルの活用
- Authors: Kohki Akiba, Shinnosuke Matsuo, Shota Harada, Ryoma Bise,
- Abstract要約: 半教師付き学習(SSL)は、しばしばクラス不均衡に苦しめられ、擬似ラベルは多数派バイアスを増幅し、少数派のパフォーマンスを抑制する。
本稿では,ラベル比(LLP)からSSLへ,正規化用語としてプロポーションロスを導入する。プロポーションロスは,モデル予測をグローバルなクラス分布と整合させ,多数派と少数派の両方に偏りを緩和する。
Long-tailed CIFAR-10ベンチマークの実験では、Proportion LossをFixMatchとReMixMatchに統合することで、不均衡の度合いとラベルの比率を越えて、ベースラインよりもパフォーマンスが一貫して向上している。
- 参考スコア(独自算出の注目度): 7.32639535694124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) often suffers under class imbalance, where pseudo-labeling amplifies majority bias and suppresses minority performance. We address this issue with a lightweight framework that, to our knowledge, is the first to introduce Proportion Loss from learning from label proportions (LLP) into SSL as a regularization term. Proportion Loss aligns model predictions with the global class distribution, mitigating bias across both majority and minority classes. To further stabilize training, we formulate a stochastic variant that accounts for fluctuations in mini-batch composition. Experiments on the Long-tailed CIFAR-10 benchmark show that integrating Proportion Loss into FixMatch and ReMixMatch consistently improves performance over the baselines across imbalance severities and label ratios, and achieves competitive or superior results compared to existing CISSL methods, particularly under scarce-label conditions.
- Abstract(参考訳): 半教師付き学習(SSL)は、しばしばクラス不均衡に苦しめられ、擬似ラベルは多数派バイアスを増幅し、少数派のパフォーマンスを抑制する。
この問題に,私たちの知る限りでは,ラベル比率(LLP)から学習したProportion Lossを,正規化用語としてSSLに初めて導入する,ライトウェイトなフレームワークで対処する。
Proportion Lossは、モデル予測をグローバルなクラス分布と整合させ、多数派と少数派の両方に偏見を和らげる。
トレーニングをさらに安定させるために,ミニバッチ構成の変動を考慮した確率的変種を定式化する。
Long-tailed CIFAR-10ベンチマークの実験では、Proportion LossをFixMatchとReMixMatchに組み込むことで、不均衡な重大さとラベル比率をまたいだベースラインよりもパフォーマンスが一貫して向上し、既存のCISSLメソッド、特に少ないラベル条件下での競合や優れた結果が得られることが示されている。
関連論文リスト
- Sampling Control for Imbalanced Calibration in Semi-Supervised Learning [14.563492336625004]
半教師付き学習(SSL)におけるクラス不均衡は依然として重要な課題である
分離サンプリング制御によりモデルバイアスを抑制する統合フレームワークSC-SSLを提案する。
論文 参考訳(メタデータ) (2025-11-24T05:15:58Z) - SeMi: When Imbalanced Semi-Supervised Learning Meets Mining Hard Examples [54.760757107700755]
Semi-Supervised Learning (SSL)は、豊富なラベルのないデータを活用して、モデルのパフォーマンスを向上させる。
実世界のシナリオにおけるクラス不均衡なデータ分散は、SSLに大きな課題をもたらし、結果としてパフォーマンスが低下する。
マイニングハードケース(SeMi)による不均衡半教師学習の性能向上手法を提案する。
論文 参考訳(メタデータ) (2025-01-10T14:35:16Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - Class-Imbalanced Semi-Supervised Learning [33.94685366079589]
Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-02-17T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。