論文の概要: Multi-Criteria Client Selection and Scheduling with Fairness Guarantee
for Federated Learning Service
- arxiv url: http://arxiv.org/abs/2312.14941v1
- Date: Tue, 5 Dec 2023 16:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:00:49.899909
- Title: Multi-Criteria Client Selection and Scheduling with Fairness Guarantee
for Federated Learning Service
- Title(参考訳): フェデレーション・ラーニング・サービスのための公平性保証付きマルチクリトリア・クライアント選択とスケジューリング
- Authors: Meiying Zhang, Huan Zhao, Sheldon Ebron, Ruitao Xie, Kan Yang
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが生のトレーニングデータを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
公平性を保証するマルチ基準クライアント選択とスケジューリング方式を提案する。
我々のスキームは、特にデータが非IDである場合、モデル品質を改善することができる。
- 参考スコア(独自算出の注目度): 17.986744632466515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables multiple clients to train machine learning
models collaboratively without sharing the raw training data. However, for a
given FL task, how to select a group of appropriate clients fairly becomes a
challenging problem due to budget restrictions and client heterogeneity. In
this paper, we propose a multi-criteria client selection and scheduling scheme
with a fairness guarantee, comprising two stages: 1) preliminary client pool
selection, and 2) per-round client scheduling. Specifically, we first define a
client selection metric informed by several criteria, such as client resources,
data quality, and client behaviors. Then, we formulate the initial client pool
selection problem into an optimization problem that aims to maximize the
overall scores of selected clients within a given budget and propose a greedy
algorithm to solve it. To guarantee fairness, we further formulate the
per-round client scheduling problem and propose a heuristic algorithm to divide
the client pool into several subsets such that every client is selected at
least once while guaranteeing that the `integrated' dataset in a subset is
close to an independent and identical distribution (iid). Our experimental
results show that our scheme can improve the model quality especially when data
are non-iid.
- Abstract(参考訳): フェデレーション学習(fl)は、複数のクライアントが生のトレーニングデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、与えられたflタスクでは、予算制限とクライアントの不均一性のために、適切なクライアントのグループを選択する方法がかなり難しい問題になる。
本稿では,2段階からなる公平性保証を備えたマルチクリトリアクライアント選択・スケジューリング方式を提案する。
1)事前のクライアントプール選択、及び
2) クライアント毎のスケジューリング。
具体的には、まず、クライアントリソース、データ品質、クライアントの振る舞いなど、いくつかの基準で通知されるクライアント選択メトリクスを定義します。
そして,初期クライアントプール選択問題を,所定の予算内で選択したクライアントのスコアを最大化することを目的とした最適化問題に定式化し,それを解決するための欲求アルゴリズムを提案する。
公平性を保証するため,本研究では,クライアントプールを複数のサブセットに分割するヒューリスティックアルゴリズムを提案し,各サブセット内の‘統合’データセットが独立かつ同一の分布(iid)に近いことを保証しながら,少なくとも一度はクライアントが選択されるようにした。
実験の結果,データ非iidの場合,特にモデル品質の向上が期待できることがわかった。
関連論文リスト
- Submodular Maximization Approaches for Equitable Client Selection in Federated Learning [4.167345675621377]
従来の学習フレームワークでは、トレーニングのためのクライアント選択は、通常、各イテレーションでクライアントのサブセットをランダムにサンプリングする。
本稿では,ランダムクライアント選択の限界に対処するために,SUBTRUNCとUNIONFLという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-24T22:40:31Z) - Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - Near-optimal Differentially Private Client Selection in Federated
Settings [3.58439716487063]
クライアントが中央サーバと協調してタスクを完了させるフェデレートネットワークを考える。
クライアントは、自分の好みに基づいて、タイムステップで参加するかどうかを決定する。
開発したアルゴリズムは,長期平均参加よりもクライアントに最適に近い値を提供する。
論文 参考訳(メタデータ) (2023-10-13T19:32:50Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Client Selection Approach in Support of Clustered Federated Learning
over Wireless Edge Networks [2.6774008509840996]
CFL(Clustered Federated Multitask Learning)は、信頼性の高い専門モデルを得るための効率的なスキームとして導入された。
本稿では,特殊な機械学習モデルを得るための収束率の向上を目的とした,新しいクライアント選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T21:38:22Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。