論文の概要: Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients
- arxiv url: http://arxiv.org/abs/2603.03007v1
- Date: Tue, 03 Mar 2026 14:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.827448
- Title: Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients
- Title(参考訳): プロトタイプバイアスループを破る:高不均衡クライアントのための信頼度に配慮したコントラスト学習
- Authors: Tian-Shuang Wu, Shen-Huan Lyu, Ning Chen, Yi-Xiao He, Bing Tang, Baoliu Ye, Qingfu Zhang,
- Abstract要約: CAFedCLは、プロトタイプアグリゲーション機構を改善し、プロトタイプによってガイドされるコントラストアライメントを強化する新しいフレームワークである。
CAFedCLは、精度とクライアントの公正性の両方において、代表的連合ベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 17.26222397658559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local class imbalance and data heterogeneity across clients often trap prototype-based federated contrastive learning in a prototype bias loop: biased local prototypes induced by imbalanced data are aggregated into biased global prototypes, which are repeatedly reused as contrastive anchors, accumulating errors across communication rounds. To break this loop, we propose Confidence-Aware Federated Contrastive Learning (CAFedCL), a novel framework that improves the prototype aggregation mechanism and strengthens the contrastive alignment guided by prototypes. CAFedCL employs a confidence-aware aggregation mechanism that leverages predictive uncertainty to downweight high-variance local prototypes. In addition, generative augmentation for minority classes and geometric consistency regularization are integrated to stabilize the structure between classes. From a theoretical perspective, we provide an expectation-based analysis showing that our aggregation reduces estimation variance, thereby bounding global prototype drift and ensuring convergence. Extensive experiments under varying levels of class imbalance and data heterogeneity demonstrate that CAFedCL consistently outperforms representative federated baselines in both accuracy and client fairness.
- Abstract(参考訳): クライアント間のローカルクラス不均衡とデータ不均一性は、プロトタイプベースのフェデレーション付きコントラスト学習をプロトタイプバイアスループでトラップすることが多い: 不均衡データによって誘導されるバイアス付きローカルプロトタイプは、バイアス付きグローバルプロトタイプに集約され、コントラスト付きアンカーとして繰り返し再利用され、通信ラウンド全体でエラーを蓄積する。
このループを断ち切るために,プロトタイプアグリゲーション機構を改善し,プロトタイプによってガイドされるコントラストアライメントを強化する新しいフレームワークであるConfidence-Aware Federated Contrastive Learning (CAFedCL)を提案する。
CAFedCLは、予測の不確実性を利用して、低重量な高分散ローカルプロトタイプに信頼性を意識したアグリゲーション機構を採用している。
さらに、クラス間の構造を安定化させるために、マイノリティクラスと幾何整合正則化の生成増強を統合する。
理論的な観点から、我々の集約が推定分散を減らし、グローバルなプロトタイプのドリフトを束縛し、収束を確実にすることを示す予測に基づく分析を提供する。
CAFedCLは、クラス不均衡とデータの不均一性の違いによる大規模な実験により、精度とクライアントの公正性の両方において、代表的ベースラインを一貫して上回ることを示した。
関連論文リスト
- Rebalancing with Calibrated Sub-classes (RCS): A Statistical Fusion-based Framework for Robust Imbalanced Classification across Modalities [16.993547305381327]
Rebalancing with Calibrated Sub-classes (RCS)は、ロバストな不均衡な分類のための新しい分散キャリブレーションフレームワークである。
RCSはガウス成分の加重混合により、多数および中間クラスの分布から統計情報を融合する。
論文 参考訳(メタデータ) (2025-10-10T00:06:13Z) - Personalized federated prototype learning in mixed heterogeneous data scenarios [8.36422671527418]
フェデレーション学習は、顧客のプライバシを同時に保護し、複数のデバイスからの分散データをモデルトレーニングに活用する能力において、大きな注目を集めている。
混合異種シナリオにおけるPFPLと呼ばれる新しい手法を提案する。
この方法は、各クライアントに対してパーソナライズされた非バイアスのプロトタイプを構築することによって、よりリッチなドメイン知識と非バイアスの収束ターゲットを提供する。
論文 参考訳(メタデータ) (2025-10-04T08:08:32Z) - Class-Conditional Distribution Balancing for Group Robust Classification [11.525201208566925]
間違った理由からモデルが正しい予測に導かれるような豪華な相関関係は、堅牢な現実世界の一般化にとって重要な課題である。
クラス-条件分布における不均衡やミスマッチとして、突発的な相関を緩和することで、新しい視点を提供する。
本稿では,バイアスアノテーションと予測の両方を必要としない,シンプルで効果的な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:15:53Z) - FedORGP: Guiding Heterogeneous Federated Learning with Orthogonality Regularization on Global Prototypes [31.93057335216804]
フェデレートラーニング(FL)は、分散機械学習に不可欠なフレームワークとして登場した。
現在のアプローチでは、クラスを分離する際の制限に直面している。
本稿では,クラス内プロトタイプの類似性を奨励し,クラス間角分離を拡大するFedtFLORGを紹介する。
論文 参考訳(メタデータ) (2025-02-22T07:02:51Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FedSA: A Unified Representation Learning via Semantic Anchors for Prototype-based Federated Learning [4.244188591221394]
本稿では,FedSA(Federated Learning via Semantic Anchors)という新しいフレームワークを提案する。
FedSAは、様々な分類タスクにおいて、既存のプロトタイプベースのFLメソッドを著しく上回っている。
論文 参考訳(メタデータ) (2025-01-09T16:10:03Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。