論文の概要: A Unified Solution to Diverse Heterogeneities in One-shot Federated Learning
- arxiv url: http://arxiv.org/abs/2410.21119v2
- Date: Mon, 28 Apr 2025 04:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 18:43:10.980635
- Title: A Unified Solution to Diverse Heterogeneities in One-shot Federated Learning
- Title(参考訳): 単発フェデレーション学習における異種不均一性の統一解法
- Authors: Jun Bai, Yiliao Song, Di Wu, Atul Sajjanhar, Yong Xiang, Wei Zhou, Xiaohui Tao, Yan Li, Yue Li,
- Abstract要約: One-Shot Federated Learning (OSFL)は、サーバとクライアント間の通信を1ラウンドに制限する。
FedHydraは、モデルとデータの不均一性の両方に効果的に対処するために設計された、統一された、データフリーのOSFLフレームワークである。
- 参考スコア(独自算出の注目度): 16.120630244663452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-Shot Federated Learning (OSFL) restricts communication between the server and clients to a single round, significantly reducing communication costs and minimizing privacy leakage risks compared to traditional Federated Learning (FL), which requires multiple rounds of communication. However, existing OSFL frameworks remain vulnerable to distributional heterogeneity, as they primarily focus on model heterogeneity while neglecting data heterogeneity. To bridge this gap, we propose FedHydra, a unified, data-free, OSFL framework designed to effectively address both model and data heterogeneity. Unlike existing OSFL approaches, FedHydra introduces a novel two-stage learning mechanism. Specifically, it incorporates model stratification and heterogeneity-aware stratified aggregation to mitigate the challenges posed by both model and data heterogeneity. By this design, the data and model heterogeneity issues are simultaneously monitored from different aspects during learning. Consequently, FedHydra can effectively mitigate both issues by minimizing their inherent conflicts. We compared FedHydra with five SOTA baselines on four benchmark datasets. Experimental results show that our method outperforms the previous OSFL methods in both homogeneous and heterogeneous settings. Our code is available at https://anonymous.4open.science/r/Fed-SA-A4D7.
- Abstract(参考訳): ワンショットフェデレーションラーニング(OSFL)は、サーバとクライアント間の通信を1ラウンドに制限し、通信コストを大幅に削減し、複数の通信を必要とする従来のフェデレーションラーニング(FL)と比較してプライバシー漏洩リスクを最小限にする。
しかし、既存のOSFLフレームワークは分散不均一性に弱いままであり、主にデータ不均一性を無視しながら不均一性をモデル化することに重点を置いている。
このギャップを埋めるためにFedHydraを提案する。FedHydraは、モデルとデータの不均一性の両方に効果的に対処するために設計された、統一された、データフリーのOSFLフレームワークである。
既存のOSFLアプローチとは異なり、FedHydraは新たな2段階学習メカニズムを導入した。
具体的には、モデル階層化とヘテロジニティを意識した階層化アグリゲーションを組み込んで、モデルとデータヘテロジニティの両方によってもたらされる課題を軽減する。
この設計により、データとモデルの不均一性問題は、学習中に異なる側面から同時に監視される。
その結果、FedHydraは、それらの固有の紛争を最小限にすることで、両方の問題を効果的に軽減できる。
我々はFedHydraを4つのベンチマークデータセットで5つのSOTAベースラインと比較した。
実験結果から,本手法は,同種および異種の両方で従来のOSFL法よりも優れた性能を示した。
私たちのコードはhttps://anonymous.4open.science/r/Fed-SA-A4D7で公開されています。
関連論文リスト
- Comparative Evaluation of Clustered Federated Learning Methods [0.5242869847419834]
CFL(Clustered Federated Learning)は、クライアントを均質なグループに分割することを目的としている。
本稿では,2つの最先端CFLアルゴリズムの性能について,フェデレートラーニング(FL)におけるデータ不均一性の分類法を提案する。
我々の目的は、CFLのパフォーマンスとデータ異種シナリオの関係をより明確に理解することである。
論文 参考訳(メタデータ) (2024-10-18T07:01:56Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - HierarchyFL: Heterogeneous Federated Learning via Hierarchical
Self-Distillation [12.409497615805797]
フェデレートラーニング(FL)は、プライバシ保護の分散機械学習パラダイムとして認識されている。
FLは、AIoTデバイスのモデル不均一性により、モデル不正確性と緩やかな収束に悩まされる。
我々は、少数の公開データを効率よくスケーラブルな知識に利用する、HierarchyFLという効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T03:32:10Z) - A Survey on Heterogeneous Federated Learning [12.395474890081232]
フェデレートラーニング(FL)は、データプライバシを保護し、プライバシとセキュリティを侵害することなく、組織間のモデルを協調的にトレーニングすることで、独立したデータサイロを組み立てることを目的としている。
しかし、FLはデータ空間、統計、システム不均一性など不均一な側面に直面している。
本稿では,問題設定と学習目的に応じて,各種類の不均一性に対する不均一なFL設定の正確な分類法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:16:43Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。