論文の概要: FLIPS: Federated Learning using Intelligent Participant Selection
- arxiv url: http://arxiv.org/abs/2308.03901v2
- Date: Sat, 30 Sep 2023 04:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 13:32:28.242059
- Title: FLIPS: Federated Learning using Intelligent Participant Selection
- Title(参考訳): FLIPS:知的参加者選択によるフェデレーション学習
- Authors: Rahul Atul Bhope, K. R. Jayaram, Nalini Venkatasubramanian, Ashish
Verma, Gegi Thomas
- Abstract要約: FLIPSクラスタは、データアプリオリのラベル分布に基づいてFLトレーニングジョブに関与し、FLトレーニング中に、選択した参加者に各クラスタが公平に表現されることを保証する。
FLIPSはコンバージェンスを大幅に改善し,20~60%の通信コストで17~20%の精度を実現し,トラグラー参加者の存在下での持続性を示した。
- 参考スコア(独自算出の注目度): 4.395908640091141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the design and implementation of FLIPS, a middleware
system to manage data and participant heterogeneity in federated learning (FL)
training workloads. In particular, we examine the benefits of label
distribution clustering on participant selection in federated learning. FLIPS
clusters parties involved in an FL training job based on the label distribution
of their data apriori, and during FL training, ensures that each cluster is
equitably represented in the participants selected. FLIPS can support the most
common FL algorithms, including FedAvg, FedProx, FedDyn, FedOpt and FedYogi. To
manage platform heterogeneity and dynamic resource availability, FLIPS
incorporates a straggler management mechanism to handle changing capacities in
distributed, smart community applications. Privacy of label distributions,
clustering and participant selection is ensured through a trusted execution
environment (TEE). Our comprehensive empirical evaluation compares FLIPS with
random participant selection, as well as three other "smart" selection
mechanisms - Oort, TiFL and gradient clustering using two real-world datasets,
two benchmark datasets, two different non-IID distributions and three common FL
algorithms (FedYogi, FedProx and FedAvg). We demonstrate that FLIPS
significantly improves convergence, achieving higher accuracy by 17 - 20 % with
20 - 60 % lower communication costs, and these benefits endure in the presence
of straggler participants.
- Abstract(参考訳): 本稿では,FLIPS(Federated Learning, FL)訓練作業におけるデータ管理と不均一性の関与を行うミドルウェアシステム)の設計と実装について述べる。
特に,連合学習における参加者選択におけるラベル分布クラスタリングの効果について検討する。
FLIPSクラスタは、データのラベル分布に基づいてFLトレーニングジョブに関与し、FLトレーニング中に、選択した参加者に各クラスタが公平に表現されることを保証する。
FLIPSは、FedAvg、FedProx、FedDyn、FedOpt、FedYogiなど、最も一般的なFLアルゴリズムをサポートすることができる。
プラットフォームの不均一性と動的リソース可用性を管理するため、FLIPSは、分散されたスマートなコミュニティアプリケーションにおいて、変更能力を扱うためのストラグラー管理機構を組み込んでいる。
ラベル配信、クラスタリング、参加者選択のプライバシは、信頼できる実行環境(TEE)を通じて保証される。
我々の総合的な実証評価では、FLIPSとランダムな選択機構、および2つの実世界のデータセット、ベンチマークデータセット、2つの異なる非IID分布、3つの共通FLアルゴリズム(FedYogi、FedProx、FedAvg)を用いた3つの"スマート"選択メカニズムを比較した。
FLIPSはコンバージェンスを大幅に改善し,20~60%の通信コストで17~20%の精度を実現し,トラグラー参加者の存在下での持続性を示した。
関連論文リスト
- FedLPS: Heterogeneous Federated Learning for Multiple Tasks with Local
Parameter Sharing [14.938531944702193]
局所異種共有を用いたフェデレーション学習(FedLPS)を提案する。
FedLPSは転送学習を使用して、ローカルモデルを共有エンコーダとタスク固有のエンコーダに分割することで、複数のタスクをひとつのデバイスにデプロイする。
FedLPSは最先端(SOTA)のFLフレームワークを最大4.88%上回り、計算資源消費量を21.3%減らす。
論文 参考訳(メタデータ) (2024-02-13T16:30:30Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Survey on Participant Selection for Federated Learning in Mobile
Networks [47.88372677863646]
Federated Learning(FL)は、プライベートデータセットをプライバシ保護の方法で使用する、効率的な分散機械学習パラダイムである。
モバイルネットワークにおける通信帯域が限られており、不安定なデバイスが利用できるため、各ラウンドで選択できる端末はごくわずかである。
論文 参考訳(メタデータ) (2022-07-08T04:22:48Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - CoFED: Cross-silo Heterogeneous Federated Multi-task Learning via
Co-training [11.198612582299813]
Federated Learning(FL)は、参加者がプライベートデータを交換することなく、高品質なモデルを協調的にトレーニングできる機械学習技術である。
擬似ラベル付き未ラベルデータに基づく通信効率の高いFLスキームであるCoFEDを提案する。
実験結果から,CoFEDは通信コストの低減を図った。
論文 参考訳(メタデータ) (2022-02-17T11:34:20Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Flexible Clustered Federated Learning for Client-Level Data Distribution
Shift [13.759582953827229]
フレキシブルクラスタ型連合学習(CFL)フレームワークFlexCFLを提案する。
FEMNISTではFedAvgに比べて,FlexCFLでは絶対テスト精度が+10.6%向上することが示された。
また、いくつかのオープンデータセット上でFlexCFLを評価し、関連するCFLフレームワークと比較した。
論文 参考訳(メタデータ) (2021-08-22T15:11:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - FedGroup: Efficient Clustered Federated Learning via Decomposed
Data-Driven Measure [18.083188787905083]
本稿では,新しいクラスタ型フェデレーション学習(CFL)フレームワークであるFedGroupを提案する。
FEMNISTではFedAvgに比べて絶対テスト精度が+14.1%向上することが示された。
また、いくつかのオープンデータセット上でFedGroupとFedGrouProx(FedProxと組み合わせた)を評価します。
論文 参考訳(メタデータ) (2020-10-14T08:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。