論文の概要: Sampling Control for Imbalanced Calibration in Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2511.18773v1
- Date: Mon, 24 Nov 2025 05:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.026311
- Title: Sampling Control for Imbalanced Calibration in Semi-Supervised Learning
- Title(参考訳): 半教師付き学習における不均衡校正のためのサンプリング制御
- Authors: Senmao Tian, Xiang Wei, Shunli Zhang,
- Abstract要約: 半教師付き学習(SSL)におけるクラス不均衡は依然として重要な課題である
分離サンプリング制御によりモデルバイアスを抑制する統合フレームワークSC-SSLを提案する。
- 参考スコア(独自算出の注目度): 14.563492336625004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance remains a critical challenge in semi-supervised learning (SSL), especially when distributional mismatches between labeled and unlabeled data lead to biased classification. Although existing methods address this issue by adjusting logits based on the estimated class distribution of unlabeled data, they often handle model imbalance in a coarse-grained manner, conflating data imbalance with bias arising from varying class-specific learning difficulties. To address this issue, we propose a unified framework, SC-SSL, which suppresses model bias through decoupled sampling control. During training, we identify the key variables for sampling control under ideal conditions. By introducing a classifier with explicit expansion capability and adaptively adjusting sampling probabilities across different data distributions, SC-SSL mitigates feature-level imbalance for minority classes. In the inference phase, we further analyze the weight imbalance of the linear classifier and apply post-hoc sampling control with an optimization bias vector to directly calibrate the logits. Extensive experiments across various benchmark datasets and distribution settings validate the consistency and state-of-the-art performance of SC-SSL.
- Abstract(参考訳): 半教師付き学習(SSL)において、特にラベル付きデータとラベルなしデータの分散ミスマッチがバイアス付き分類につながる場合、クラス不均衡は依然として重要な課題である。
既存の手法では、未ラベルデータの推定クラス分布に基づいてロジットを調整することでこの問題に対処するが、モデル不均衡を粗い粒度で処理し、クラス固有の学習困難から生じるバイアスとデータを混同することが多い。
そこで本研究では,分離サンプリング制御によるモデルバイアスを抑制する統合フレームワークSC-SSLを提案する。
トレーニング中、理想的な条件下でのサンプリング制御の鍵となる変数を同定する。
明示的な拡張能力を持つ分類器を導入し、異なるデータ分布にまたがるサンプリング確率を適応的に調整することにより、SC-SSLは少数クラスの特徴レベルの不均衡を緩和する。
推論フェーズでは、線形分類器の重み不均衡を解析し、最適化バイアスベクトルによるポストホックサンプリング制御を適用し、直接ロジットを校正する。
さまざまなベンチマークデータセットと分散設定にわたる大規模な実験により、SC-SSLの一貫性と最先端のパフォーマンスが検証される。
関連論文リスト
- CalibrateMix: Guided-Mixup Calibration of Image Semi-Supervised Models [49.588973929678765]
CalibrateMixは、SSLモデルのキャリブレーションを改善することを目的とした、ミックスアップベースのアプローチである。
提案手法は,既存のSSL手法と比較して,期待校正誤差(ECE)の低減と精度の向上を実現している。
論文 参考訳(メタデータ) (2025-11-17T04:43:53Z) - Rebalancing with Calibrated Sub-classes (RCS): A Statistical Fusion-based Framework for Robust Imbalanced Classification across Modalities [16.993547305381327]
Rebalancing with Calibrated Sub-classes (RCS)は、ロバストな不均衡な分類のための新しい分散キャリブレーションフレームワークである。
RCSはガウス成分の加重混合により、多数および中間クラスの分布から統計情報を融合する。
論文 参考訳(メタデータ) (2025-10-10T00:06:13Z) - Gradient-based Sampling for Class Imbalanced Semi-supervised Object Detection [111.0991686509715]
半教師付き物体検出(SSOD)におけるクラス不均衡問題を,より困難なシナリオ下で検討する。
本稿では,2種類の確認バイアスの観点から,クラス不均衡問題に対処する,単純かつ効果的な勾配に基づくサンプリングフレームワークを提案する。
提案手法は,MS-COCO,MS-COCO,Object365,LVISの3種類のサブタスクにおいて,現行の非平衡物体検出器よりもクリアマージンの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-22T11:30:10Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - CReST: A Class-Rebalancing Self-Training Framework for Imbalanced
Semi-Supervised Learning [15.671523625324388]
クラスアンバランスデータの既存のSSLメソッドを改善するために、クラスリバランスセルフトレーニング(CReST)を提案します。
CRESTはラベル付きセットを拡張したベースラインSSLモデルを反復的に再トレーニングする。
CReSTとCReST+は、様々なクラスアンバランスデータセットにおける最先端のSSLアルゴリズムを改善する。
論文 参考訳(メタデータ) (2021-02-18T18:59:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。