論文の概要: CalibrateMix: Guided-Mixup Calibration of Image Semi-Supervised Models
- arxiv url: http://arxiv.org/abs/2511.12964v1
- Date: Mon, 17 Nov 2025 04:43:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.660258
- Title: CalibrateMix: Guided-Mixup Calibration of Image Semi-Supervised Models
- Title(参考訳): CalibrateMix:画像半監督モデルのガイドミクスアップ校正
- Authors: Mehrab Mustafy Rahman, Jayanth Mohan, Tiberiu Sosea, Cornelia Caragea,
- Abstract要約: CalibrateMixは、SSLモデルのキャリブレーションを改善することを目的とした、ミックスアップベースのアプローチである。
提案手法は,既存のSSL手法と比較して,期待校正誤差(ECE)の低減と精度の向上を実現している。
- 参考スコア(独自算出の注目度): 49.588973929678765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised learning (SSL) has demonstrated high performance in image classification tasks by effectively utilizing both labeled and unlabeled data. However, existing SSL methods often suffer from poor calibration, with models yielding overconfident predictions that misrepresent actual prediction likelihoods. Recently, neural networks trained with {\tt mixup} that linearly interpolates random examples from the training set have shown better calibration in supervised settings. However, calibration of neural models remains under-explored in semi-supervised settings. Although effective in supervised model calibration, random mixup of pseudolabels in SSL presents challenges due to the overconfidence and unreliability of pseudolabels. In this work, we introduce CalibrateMix, a targeted mixup-based approach that aims to improve the calibration of SSL models while maintaining or even improving their classification accuracy. Our method leverages training dynamics of labeled and unlabeled samples to identify ``easy-to-learn'' and ``hard-to-learn'' samples, which in turn are utilized in a targeted mixup of easy and hard samples. Experimental results across several benchmark image datasets show that our method achieves lower expected calibration error (ECE) and superior accuracy compared to existing SSL approaches.
- Abstract(参考訳): 半教師付き学習(SSL)は,ラベル付きデータとラベルなしデータの両方を効果的に活用することにより,画像分類タスクにおいて高い性能を示した。
しかし、既存のSSLメソッドはキャリブレーションに苦しむことが多く、モデルは実際の予測可能性の誤認を過度に予測する。
近年、トレーニングセットからランダムなサンプルを線形に補間する {\tt mixup} でトレーニングされたニューラルネットワークは、教師付き設定におけるキャリブレーションが改善されている。
しかし、ニューラルネットワークのキャリブレーションは、半教師付き設定では未探索のままである。
教師付きモデルの校正には有効であるが、SSLにおける疑似ラベルのランダムな混合は、疑似ラベルの過信と信頼性の欠如による課題を提起する。
本研究では、SSLモデルのキャリブレーションを改善しつつ、分類精度を維持・改善することを目的とした、ミキシングベースのアプローチであるCalibrateMixを紹介する。
本手法はラベル付きサンプルとラベルなしサンプルのトレーニングダイナミクスを活用して'easy-to-learn'と'hard-to-learn'のサンプルを同定する。
いくつかのベンチマーク画像データセットを用いた実験結果から,提案手法は既存のSSL手法と比較して,期待値のキャリブレーション誤差(ECE)が低く,精度も優れていることがわかった。
関連論文リスト
- Beyond One-Hot Labels: Semantic Mixing for Model Calibration [22.39558434131574]
textbfCalibration-aware Semantic Mixing (CSM) は、クラス特性の混合したトレーニングサンプルを生成する新しいフレームワークである。
我々はCSMが最先端のキャリブレーション手法よりも優れたキャリブレーションを実現することを示す。
論文 参考訳(メタデータ) (2025-04-18T08:26:18Z) - Learning Label Refinement and Threshold Adjustment for Imbalanced Semi-Supervised Learning [6.904448748214652]
半教師付き学習アルゴリズムは、不均衡なトレーニングデータに晒された場合、うまく機能しない。
Validation Data(SEVAL)に基づく擬似ラベル最適化によるセミ教師あり学習について紹介する。
SEVALは、擬似ラベルの精度を改善して特定のタスクに適応し、クラスごとに擬似ラベルの正確性を保証する。
論文 参考訳(メタデータ) (2024-07-07T13:46:22Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - On the Importance of Calibration in Semi-supervised Learning [13.859032326378188]
State-of-the-art (SOTA) の半教師付き学習(SSL)手法はラベル付きデータとラベルなしデータの混在を活用することに成功している。
我々は、キャリブレーションを最適化し、標準ビジョンベンチマークでその有効性を実証する新しいSSLモデル群を紹介します。
論文 参考訳(メタデータ) (2022-10-10T15:41:44Z) - On the Calibration of Pre-trained Language Models using Mixup Guided by
Area Under the Margin and Saliency [47.90235939359225]
モデルキャリブレーションをさらに改善する事前学習型言語モデルのための新しい混合戦略を提案する。
本手法は,ドメイン内およびドメイン外テストサンプルの強いベースラインと比較して,最小のキャリブレーション誤差を実現する。
論文 参考訳(メタデータ) (2022-03-14T23:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。