論文の概要: Learning Unlabeled Clients Divergence via Anchor Model Aggregation for Federated Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2407.10327v1
- Date: Sun, 14 Jul 2024 20:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 18:39:42.567678
- Title: Learning Unlabeled Clients Divergence via Anchor Model Aggregation for Federated Semi-supervised Learning
- Title(参考訳): フェデレーション半教師付き学習のためのアンカーモデルアグリゲーションによる未ラベルクライアントの多様性の学習
- Authors: Marawan Elbatel, Hualiang Wang, Jixiang Chen, Hao Wang, Xiaomeng Li,
- Abstract要約: SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学習する。
SemiAnAggは4つの広く使用されているFedSemiベンチマークにおいて、最先端の新たな結果を達成する。
- 参考スコア(独自算出の注目度): 10.282711631100845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated semi-supervised learning (FedSemi) refers to scenarios where there may be clients with fully labeled data, clients with partially labeled, and even fully unlabeled clients while preserving data privacy. However, challenges arise from client drift due to undefined heterogeneous class distributions and erroneous pseudo-labels. Existing FedSemi methods typically fail to aggregate models from unlabeled clients due to their inherent unreliability, thus overlooking unique information from their heterogeneous data distribution, leading to sub-optimal results. In this paper, we enable unlabeled client aggregation through SemiAnAgg, a novel Semi-supervised Anchor-Based federated Aggregation. SemiAnAgg learns unlabeled client contributions via an anchor model, effectively harnessing their informative value. Our key idea is that by feeding local client data to the same global model and the same consistently initialized anchor model (i.e., random model), we can measure the importance of each unlabeled client accordingly. Extensive experiments demonstrate that SemiAnAgg achieves new state-of-the-art results on four widely used FedSemi benchmarks, leading to substantial performance improvements: a 9% increase in accuracy on CIFAR-100 and a 7.6% improvement in recall on the medical dataset ISIC-18, compared with prior state-of-the-art. Code is available at: https://github.com/xmed-lab/SemiAnAgg.
- Abstract(参考訳): フェデレート半教師付き学習(FedSemi)とは、完全なラベル付きデータを持つクライアント、部分的にラベル付けされたクライアント、さらには完全にラベル付けされていないクライアントがデータプライバシを保存するシナリオを指す。
しかし、未定義の不均一なクラス分布と誤った擬似ラベルによってクライアントのドリフトが問題となる。
既存のFedSemiメソッドは、本質的に信頼性の低いクライアントからのモデルを集約できないため、不均一なデータ分散からユニークな情報を見落とし、準最適結果をもたらす。
本稿では,SemiAnAggによる未ラベルクライアントアグリゲーションを実現する。
SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学び、その情報的価値を効果的に活用する。
我々のキーとなる考え方は、ローカルクライアントデータを同じグローバルモデルと、同じ一貫した初期化アンカーモデル(すなわち、ランダムモデル)にフィードすることで、各未ラベルクライアントの重要性を測定できるということです。
CIFAR-100の精度は9%向上し、ISIC-18のリコールは7.6%向上した。
コードは、https://github.com/xmed-lab/SemiAnAgg.comで入手できる。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data [6.322831694506287]
分離フェデレートラーニング(IsoFed)は、半教師付きフェデレートラーニング(SSFL)に特化して設計されたラーニングスキームである。
本稿では,教師付きモデルと半教師付きモデルの簡易な平均化を回避し,SSFLに特化して設計した新しい学習手法を提案する。
特に、我々のトレーニングアプローチは、(a)ラベル付きおよびラベルなしのクライアントモデルの独立したアグリゲーションと、(b)すべてのクライアントで独立したグローバルモデルのローカルな自己教師付き事前トレーニングという2つの部分で構成されています。
論文 参考訳(メタデータ) (2023-10-28T20:41:41Z) - Navigating Data Heterogeneity in Federated Learning A Semi-Supervised
Federated Object Detection [3.7398615061365206]
フェデレートラーニング(FL)は、分散データソース間でモデルをトレーニングするための強力なフレームワークとして登場した。
特に自動運転のようなアプリケーションでは、高品質なラベルや、IID以外のクライアントデータに制限がある。
クライアントがラベル付きデータを持っている間、ラベル付きデータがサーバにのみ存在するシナリオ用に設計された、先駆的なSSFODフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:40:28Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - RSCFed: Random Sampling Consensus Federated Semi-supervised Learning [40.998176838813045]
Federated semi-supervised learning (FSSL)は、完全にラベル付けされた、完全にラベル付けされていないクライアントをトレーニングしたり、部分的にラベル付けされたクライアントをトレーニングすることで、グローバルなモデルを導出することを目的としている。
我々は,完全ラベルのクライアント,完全ラベルのクライアント,あるいは部分的にラベル付けされたクライアントのモデル間の不均一な信頼性を考慮して,ランダムサンプリング統合学習(RSCFed)を提案する。
論文 参考訳(メタデータ) (2022-03-26T05:10:44Z) - SemiFed: Semi-supervised Federated Learning with Consistency and
Pseudo-Labeling [14.737638416823772]
フェデレートラーニングは、携帯電話や組織などの複数のクライアントが共同で、予測のための共有モデルを学ぶことを可能にする。
本研究では、各クライアントのデータサンプルを部分的にラベル付けするクロスサイロ・フェデレーション学習の新しいシナリオに焦点を当てる。
そこで我々は,半教師付き学習において,一貫性の正規化と擬似ラベル付けという2つの主要なアプローチを統一する,SemiFedと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-21T01:14:27Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。