論文の概要: DPP-based Client Selection for Federated Learning with Non-IID Data
- arxiv url: http://arxiv.org/abs/2303.17358v1
- Date: Thu, 30 Mar 2023 13:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 13:29:16.814822
- Title: DPP-based Client Selection for Federated Learning with Non-IID Data
- Title(参考訳): 非IIDデータを用いたフェデレーション学習のためのDPPベースのクライアント選択
- Authors: Yuxuan Zhang, Chao Xu, Howard H. Yang, Xijun Wang, and Tony Q. S. Quek
- Abstract要約: 本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 97.1195165400568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a client selection (CS) method to tackle the
communication bottleneck of federated learning (FL) while concurrently coping
with FL's data heterogeneity issue. Specifically, we first analyze the effect
of CS in FL and show that FL training can be accelerated by adequately choosing
participants to diversify the training dataset in each round of training. Based
on this, we leverage data profiling and determinantal point process (DPP)
sampling techniques to develop an algorithm termed Federated Learning with
DPP-based Participant Selection (FL-DP$^3$S). This algorithm effectively
diversifies the participants' datasets in each round of training while
preserving their data privacy. We conduct extensive experiments to examine the
efficacy of our proposed method. The results show that our scheme attains a
faster convergence rate, as well as a smaller communication overhead than
several baselines.
- Abstract(参考訳): 本稿では、flのデータ不均一性問題に同時対応しながら、連合学習(fl)の通信ボトルネックに取り組むためのクライアント選択(cs)手法を提案する。
具体的には、まず、flにおけるcsの効果を分析し、各トレーニングラウンドにおけるトレーニングデータセットの多様化を適切に選択することで、flトレーニングを加速できることを示す。
そこで我々は,データプロファイリングと決定点プロセス(DPP)のサンプリング技術を活用し,DPPに基づく参加者選択(FL-DP$^3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発した。
このアルゴリズムは、データのプライバシを保ちながら、トレーニングの各ラウンドで参加者のデータセットを効果的に多様化する。
提案手法の有効性を検討するため,広範囲な実験を行った。
その結果,本手法は,複数のベースラインよりも通信オーバーヘッドが少なく,より高速な収束率が得られることがわかった。
関連論文リスト
- Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Efficient Cluster Selection for Personalized Federated Learning: A
Multi-Armed Bandit Approach [2.5477011559292175]
フェデレートラーニング(FL)は、データプライバシを優先する、マシンラーニングモデルのための分散トレーニングアプローチを提供する。
本稿では,マルチアームバンディット(MAB)アプローチに触発された動的アッパー信頼境界(dUCB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-29T16:46:50Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Client Selection in Federated Learning based on Gradients Importance [5.263296985310379]
フェデレートラーニング(FL)は、複数のデバイスが個人データを共有せずにグローバルモデルを協調的に学習することを可能にする。
本稿では,勾配規範の重要性に基づいて,デバイス選択戦略を検討・設計する。
論文 参考訳(メタデータ) (2021-11-19T11:53:23Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。