論文の概要: ProxyFL: A Proxy-Guided Framework for Federated Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2602.21078v1
- Date: Tue, 24 Feb 2026 16:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.844311
- Title: ProxyFL: A Proxy-Guided Framework for Federated Semi-Supervised Learning
- Title(参考訳): ProxyFL:Federated Semi-Supervised Learningのためのプロキシガイドフレームワーク
- Authors: Duowen Chen, Yan Wang,
- Abstract要約: Federated Semi-Supervised Learning (FSSL)は、部分的に注釈付けされたローカルデータを活用することで、クライアント間でグローバルモデルを協調的にトレーニングすることを目的としている。
本稿では,プロキシを統一したプロキシによる外部および内部の不均一性を同時に緩和することに焦点を当てたプロキシ誘導フレームワークProxyFLを提案する。
- 参考スコア(独自算出の注目度): 10.76660456041951
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Semi-Supervised Learning (FSSL) aims to collaboratively train a global model across clients by leveraging partially-annotated local data in a privacy-preserving manner. In FSSL, data heterogeneity is a challenging issue, which exists both across clients and within clients. External heterogeneity refers to the data distribution discrepancy across different clients, while internal heterogeneity represents the mismatch between labeled and unlabeled data within clients. Most FSSL methods typically design fixed or dynamic parameter aggregation strategies to collect client knowledge on the server (external) and / or filter out low-confidence unlabeled samples to reduce mistakes in local client (internal). But, the former is hard to precisely fit the ideal global distribution via direct weights, and the latter results in fewer data participation into FL training. To this end, we propose a proxy-guided framework called ProxyFL that focuses on simultaneously mitigating external and internal heterogeneity via a unified proxy. I.e., we consider the learnable weights of classifier as proxy to simulate the category distribution both locally and globally. For external, we explicitly optimize global proxy against outliers instead of direct weights; for internal, we re-include the discarded samples into training by a positive-negative proxy pool to mitigate the impact of potentially-incorrect pseudo-labels. Insight experiments & theoretical analysis show our significant performance and convergence in FSSL.
- Abstract(参考訳): Federated Semi-Supervised Learning (FSSL)は、部分的に注釈付けされたローカルデータをプライバシ保護の方法で活用することにより、クライアント間でグローバルモデルを協調的にトレーニングすることを目的としている。
FSSLでは、データの異質性は難しい問題であり、クライアントとクライアントの両方に存在する。
外的不均一性(externial heterogeneity)とは、異なるクライアント間でのデータ分散の不一致を指すが、内部の不均一性は、クライアント内のラベル付きデータとラベルなしデータのミスマッチを表す。
たいていのFSSLメソッドは、サーバ上のクライアントの知識(外部)を収集するために、またはローカルクライアント(内部)のミスを減らすために、低信頼の未ラベルのサンプルをフィルタリングするために、固定または動的パラメータアグリゲーション戦略を設計します。
しかし、前者は直接重み付けによって理想的なグローバル分布に正確に適合することは困難であり、後者はFLトレーニングへのデータ参加を少なくする。
そこで本研究では,プロキシを統一したプロキシによる外部および内部の不均一性を同時に緩和することに焦点を当てたプロキシ誘導フレームワークProxyFLを提案する。
すなわち、学習可能な分類器の重みを、局所的およびグローバル的にカテゴリ分布をシミュレートするプロキシとして考える。
内部では、破棄されたサンプルを正負のプロキシプールによってトレーニングに再包含し、潜在的に不正な擬似ラベルの影響を軽減する。
インサイト実験と理論的解析は、FSSLにおける我々の顕著な性能と収束を示す。
関連論文リスト
- Mind the Gap: Confidence Discrepancy Can Guide Federated Semi-Supervised Learning Across Pseudo-Mismatch [50.632535091877706]
Federated Semi-Supervised Learning (FSSL)は、ラベル付きデータに制限のあるクライアント間でラベル付きデータを活用して、強力な一般化能力を持つグローバルモデルをトレーニングすることを目的としている。
ほとんどのFSSL手法は擬似ラベルによる整合正則化に依存しており、局所的またはグローバルなモデルからの予測を監督信号としてハード擬似ラベルに変換する。
擬似ラベルの品質は、フェデレーション学習の本質的な側面であるデータ不均一性によって大きく劣化していることを示す。
論文 参考訳(メタデータ) (2025-03-17T14:41:51Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning [5.21877373352943]
クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つです。
クライアントマッチングと分類器交換によりFedCMEという新しいFLフレームワークを提案する。
実験結果から,FedCMEはFedAvg,FedProx,MOON,FedRSよりも高い性能を示した。
論文 参考訳(メタデータ) (2023-07-17T15:40:45Z) - Towards Unbiased Training in Federated Open-world Semi-supervised
Learning [15.08153616709326]
本稿では,分散およびオープンな環境における重要な課題を解決するための,新しいフェデレートオープンワールドセミスーパーバイドラーニング(FedoSSL)フレームワークを提案する。
我々は,不確実性に留意された損失を抑えることで,局所的に見えないクラスとグローバルな見えないクラスの間のバイアスのあるトレーニングを緩和する。
提案したFedoSSLは、ベンチマークや実世界のデータセットに関する広範な実験を通じて検証される、最先端のFLメソッドに容易に適用することができる。
論文 参考訳(メタデータ) (2023-05-01T11:12:37Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。