論文の概要: Decoupled Contrastive Learning for Federated Learning
- arxiv url: http://arxiv.org/abs/2508.04005v1
- Date: Wed, 06 Aug 2025 01:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.49678
- Title: Decoupled Contrastive Learning for Federated Learning
- Title(参考訳): フェデレーション学習のための非結合型コントラスト学習
- Authors: Hyungbin Kim, Incheol Baek, Yon Dohn Chung,
- Abstract要約: Decoupled Contrastive Learning for Federated Learning (DCFL)を紹介する。
DCFLは、既存の対照的な損失を2つの目的に分離する、新しいフレームワークである。
以上の結果から,DCFLは正試料間の配向が強く,負試料間の一様性が高いことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a distributed machine learning paradigm that allows multiple participants to train a shared model by exchanging model updates instead of their raw data. However, its performance is degraded compared to centralized approaches due to data heterogeneity across clients. While contrastive learning has emerged as a promising approach to mitigate this, our theoretical analysis reveals a fundamental conflict: its asymptotic assumptions of an infinite number of negative samples are violated in finite-sample regime of federated learning. To address this issue, we introduce Decoupled Contrastive Learning for Federated Learning (DCFL), a novel framework that decouples the existing contrastive loss into two objectives. Decoupling the loss into its alignment and uniformity components enables the independent calibration of the attraction and repulsion forces without relying on the asymptotic assumptions. This strategy provides a contrastive learning method suitable for federated learning environments where each client has a small amount of data. Our experimental results show that DCFL achieves stronger alignment between positive samples and greater uniformity between negative samples compared to existing contrastive learning methods. Furthermore, experimental results on standard benchmarks, including CIFAR-10, CIFAR-100, and Tiny-ImageNet, demonstrate that DCFL consistently outperforms state-of-the-art federated learning methods.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、複数の参加者が生データの代わりにモデル更新を交換することで、共有モデルをトレーニングできる分散機械学習パラダイムである。
しかし、クライアント間のデータの均一性のため、中央集権的なアプローチに比べてパフォーマンスは低下する。
対照的な学習は、これを緩和するための有望なアプローチとして現れてきたが、我々の理論的分析は根本的な矛盾を明らかにしている。
この問題に対処するため、我々は、既存の対照的な損失を2つの目的に分離する新しいフレームワークであるDecoupled Contrastive Learning for Federated Learning (DCFL)を紹介した。
損失をアライメントと一様成分に分離することで、漸近的な仮定に頼らずにアトラクションと反発力を独立に校正することができる。
この戦略は、クライアントが少量のデータを持つフェデレーション学習環境に適したコントラスト学習方法を提供する。
実験の結果,DCFLは,既存の比較学習法と比較して,正試料間の配向が強く,負試料間の一様性が高いことがわかった。
さらに、CIFAR-10、CIFAR-100、Tiny-ImageNetなどの標準ベンチマークの実験結果により、DCFLは最先端のフェデレーション学習手法よりも一貫して優れていることが示された。
関連論文リスト
- Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Federated Testing (FedTest): A New Scheme to Enhance Convergence and Mitigate Adversarial Attacks in Federating Learning [35.14491996649841]
フェデレーション学習のためのフェデレーションテスト(FedTest)と呼ばれる新しいフェデレーション学習フレームワークを導入する。
FedTestでは、特定のユーザのローカルデータは、そのユーザのモデルをトレーニングし、他のユーザのモデルをテストするために使用されます。
数値解析の結果,提案手法は収束率を加速するだけでなく,悪意のあるユーザの影響を低減させる。
論文 参考訳(メタデータ) (2025-01-19T21:01:13Z) - Dissecting Representation Misalignment in Contrastive Learning via Influence Function [15.28417468377201]
コントラスト損失に対する拡張影響関数 (ECIF) を導入し, コントラスト損失に対する影響関数について検討した。
ECIFは正と負の両方のサンプルを考慮し、対照的な学習モデルの閉形式近似を提供する。
我々はECIFに基づいて,データ評価,誤修正検出,誤予測トレースバックタスクのための一連のアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-18T15:45:41Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Depersonalized Federated Learning: Tackling Statistical Heterogeneity by
Alternating Stochastic Gradient Descent [6.394263208820851]
フェデレート・ラーニング(FL)は、デバイスがデータ共有なしでインテリジェントな推論のために共通の機械学習(ML)モデルをトレーニングすることを可能にする。
様々な共役者によって保持される生データは、常に不特定に分散される。
本稿では,このプロセスのデスピードにより統計的に大幅に最適化できる新しいFLを提案する。
論文 参考訳(メタデータ) (2022-10-07T10:30:39Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Robust Federated Learning: The Case of Affine Distribution Shifts [41.27887358989414]
我々は,ユーザのサンプルの分布変化に対して良好な性能を実現するための,堅牢なフェデレーション学習アルゴリズムを開発した。
新しいテストユーザにおいて,アフィン分布シフトは学習者分類器の性能を著しく低下させるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-06-16T03:43:59Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。