論文の概要: SCS-SupCon: Sigmoid-based Common and Style Supervised Contrastive Learning with Adaptive Decision Boundaries
- arxiv url: http://arxiv.org/abs/2512.17954v1
- Date: Wed, 17 Dec 2025 15:55:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.121733
- Title: SCS-SupCon: Sigmoid-based Common and Style Supervised Contrastive Learning with Adaptive Decision Boundaries
- Title(参考訳): SCS-SupCon:適応的決定境界を用いた共通・スタイルのコントラスト学習
- Authors: Bin Wang, Fadi Dornaika,
- Abstract要約: Sigmoid-based Common and Style Supervised Contrastive Learning (SCS-SupCon)を提案する。
本フレームワークでは,学習可能な温度とバイアスパラメータを併用したシグモイドによる対向的損失を導入し,適応的な決定境界を実現する。
SCS-SupConはCNNとTransformerのバックボーンで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 13.983602516442454
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image classification is hindered by subtle inter-class differences and substantial intra-class variations, which limit the effectiveness of existing contrastive learning methods. Supervised contrastive approaches based on the InfoNCE loss suffer from negative-sample dilution and lack adaptive decision boundaries, thereby reducing discriminative power in fine-grained recognition tasks. To address these limitations, we propose Sigmoid-based Common and Style Supervised Contrastive Learning (SCS-SupCon). Our framework introduces a sigmoid-based pairwise contrastive loss with learnable temperature and bias parameters to enable adaptive decision boundaries. This formulation emphasizes hard negatives, mitigates negative-sample dilution, and more effectively exploits supervision. In addition, an explicit style-distance constraint further disentangles style and content representations, leading to more robust feature learning. Comprehensive experiments on six benchmark datasets, including CUB200-2011 and Stanford Dogs, demonstrate that SCS-SupCon achieves state-of-the-art performance across both CNN and Transformer backbones. On CIFAR-100 with ResNet-50, SCS-SupCon improves top-1 accuracy over SupCon by approximately 3.9 percentage points and over CS-SupCon by approximately 1.7 points under five-fold cross-validation. On fine-grained datasets, it outperforms CS-SupCon by 0.4--3.0 points. Extensive ablation studies and statistical analyses further confirm the robustness and generalization of the proposed framework, with Friedman tests and Nemenyi post-hoc evaluations validating the stability of the observed improvements.
- Abstract(参考訳): 画像分類は、クラス間の微妙な相違と、既存のコントラスト学習方法の有効性を制限する実質的なクラス内変異によって妨げられる。
InfoNCEの損失に基づく対照的なアプローチは、負サンプルの希釈に悩まされ、適応的な決定境界が欠如しているため、微粒化認識タスクにおける識別能力が低下する。
これらの制約に対処するため,Sigmoid-based Common and Style Supervised Contrastive Learning (SCS-SupCon)を提案する。
本フレームワークでは,学習可能な温度とバイアスパラメータを併用したシグモイドによる対向的損失を導入し,適応的な決定境界を実現する。
この定式化は強陰性を強調し、負サンプル希釈を緩和し、より効果的に監督を利用する。
さらに、明示的なスタイル距離制約により、スタイルとコンテンツ表現はさらに混乱し、より堅牢な機能学習につながります。
CUB200-2011とStanford Dogsを含む6つのベンチマークデータセットに関する総合的な実験は、SCS-SupConがCNNとTransformerのバックボーンで最先端のパフォーマンスを達成することを示した。
ResNet-50のCIFAR-100では、CS-SupConはSupConの上位1点の精度を約3.9ポイント、CS-SupConの精度は5倍のクロスバリデーションで約1.7ポイント向上する。
詳細なデータセットでは、CS-SupConを0.4-3.0ポイント上回る。
広範囲にわたるアブレーション研究と統計分析により提案フレームワークの堅牢性と一般化がさらに確認され、Friedman試験とNemenyiポストホック評価により、観測された改善の安定性が検証された。
関連論文リスト
- Learning Robust Representations for Malicious Content Detection via Contrastive Sampling and Uncertainty Estimation [0.0]
不確実性コントラストフレームワーク(UCF)は、不確実性を考慮したコントラスト損失、適応温度スケーリング、自己注意誘導型LSTMエンコーダを統合し、ノイズおよび不均衡条件下での分類を改善する。
UCFはサンプルの信頼度に基づいて対照的な重み付けを動的に調整し、正のアンカーを用いたトレーニングを安定化し、温度パラメータをバッチレベルの可変性に適応させる。
論文 参考訳(メタデータ) (2025-12-01T22:06:06Z) - Variational Supervised Contrastive Learning [50.79938854370321]
本稿では,教師付きコントラスト学習を潜在クラス変数に対する変分推論として再構成した変分教師付きコントラスト学習(VarCon)を提案する。
VarConは対照的な学習フレームワークの最先端のパフォーマンスを達成し、ImageNet-1Kでは79.36%、CIFAR-100では78.29%、ResNet-50エンコーダでは78.29%に達した。
論文 参考訳(メタデータ) (2025-06-09T04:19:12Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective [48.99488315273868]
セマンティックな一貫性を維持しつつ,サンプル単位のロジットアライメントを実現するコントラッシブな知識蒸留フレームワークを提案する。
提案手法は,教師と教師の対照的アライメントを通じて「暗黒知識」をサンプルレベルで伝達する。
CIFAR-100、ImageNet-1K、MS COCOデータセットを含む3つのベンチマークデータセットの総合的な実験を行う。
論文 参考訳(メタデータ) (2024-04-22T11:52:40Z) - BaCon: Boosting Imbalanced Semi-supervised Learning via Balanced Feature-Level Contrastive Learning [0.9160375060389779]
クラス不均衡半教師学習(CISSL)では、信頼できない擬似ラベルによって引き起こされるバイアスは、不均衡なデータ分布によって悪化させることができる。
提案手法は、よく設計されたコントラスト的な方法で、インスタンスの表現の分布を直接正規化する。
提案手法は, CIFAR10-LT, CIFAR100-LT, STL10-LT, SVHN-LTデータセットの包括的実験により有効性を示す。
論文 参考訳(メタデータ) (2024-03-04T06:43:16Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Performance Evaluation of Adversarial Attacks: Discrepancies and
Solutions [51.8695223602729]
機械学習モデルの堅牢性に挑戦するために、敵対攻撃方法が開発されました。
本稿では,Piece-wise Sampling Curving(PSC)ツールキットを提案する。
psc toolkitは計算コストと評価効率のバランスをとるオプションを提供する。
論文 参考訳(メタデータ) (2021-04-22T14:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。