論文の概要: Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation
- arxiv url: http://arxiv.org/abs/2304.07981v1
- Date: Mon, 17 Apr 2023 04:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:23:48.447702
- Title: Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation
- Title(参考訳): ランダム化クライアント参加型非バイアスフェデレーション学習のためのインセンティブ機構設計
- Authors: Bing Luo, Yutong Feng, Shiqiang Wang, Jianwei Huang, Leandros
Tassiulas
- Abstract要約: 本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
- 参考スコア(独自算出の注目度): 31.2017942327673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incentive mechanism is crucial for federated learning (FL) when rational
clients do not have the same interests in the global model as the server.
However, due to system heterogeneity and limited budget, it is generally
impractical for the server to incentivize all clients to participate in all
training rounds (known as full participation). The existing FL incentive
mechanisms are typically designed by stimulating a fixed subset of clients
based on their data quantity or system resources. Hence, FL is performed only
using this subset of clients throughout the entire training process, leading to
a biased model because of data heterogeneity. This paper proposes a game
theoretic incentive mechanism for FL with randomized client participation,
where the server adopts a customized pricing strategy that motivates different
clients to join with different participation levels (probabilities) for
obtaining an unbiased and high performance model. Each client responds to the
server's monetary incentive by choosing its best participation level, to
maximize its profit based on not only the incurred local cost but also its
intrinsic value for the global model. To effectively evaluate clients'
contribution to the model performance, we derive a new convergence bound which
analytically predicts how clients' arbitrary participation levels and their
heterogeneous data affect the model performance. By solving a non-convex
optimization problem, our analysis reveals that the intrinsic value leads to
the interesting possibility of bidirectional payment between the server and
clients. Experimental results using real datasets on a hardware prototype
demonstrate the superiority of our mechanism in achieving higher model
performance for the server as well as higher profits for the clients.
- Abstract(参考訳): 合理的クライアントがサーバとグローバルモデルに同じ関心を持っていない場合、インセンティブメカニズムは連邦学習(FL)にとって不可欠である。
しかしながら、システムの不均一性と予算の制限のため、サーバがすべてのクライアントに対してすべてのトレーニングラウンド(フル参加と呼ばれる)に参加する動機を与えるのは現実的ではない。
既存のflインセンティブメカニズムは、通常、データ量やシステムリソースに基づいてクライアントの固定サブセットを刺激することによって設計される。
したがって、flはトレーニングプロセス全体を通して、このサブセットのクライアントのみを使用して実行されるため、データの多様性のためにバイアスモデルとなる。
本稿では,ランダム化されたクライアント参加を伴うflのゲーム理論的インセンティブ機構を提案する。サーバは,異なるクライアントが異なる参加レベル(確率)に参加することを動機づけるカスタマイズされた価格戦略を採用し,偏りのないハイパフォーマンスモデルを得る。
各クライアントは、最も優れた参加レベルを選択してサーバの金銭的インセンティブに反応し、その利益を、発生したローカルコストだけでなく、グローバルモデルに対する本質的な価値に基づいて最大化する。
モデル性能に対するクライアントの貢献を効果的に評価するために、クライアントの任意の参加レベルとその異種データがモデル性能に与える影響を解析的に予測する新しい収束境界を導出する。
非凸最適化問題を解くことにより,本分析の結果,サーバとクライアント間の双方向支払いの可能性が示唆された。
ハードウェアプロトタイプ上の実データセットを用いた実験の結果,サーバのモデル性能向上とクライアントの利益向上の機構の優位性が実証された。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Incentive-Compatible Federated Learning with Stackelberg Game Modeling [11.863770989724959]
適応ガンマベースのStackelbergゲームに基づく新しいフェデレートラーニングフレームワークであるFLammaを紹介する。
当社のアプローチでは、サーバがリーダとして機能し、動的に崩壊要因を調整し、クライアントはフォロワーとして、その効用を最大化するローカルエポックの数を最適に選択します。
時間が経つにつれて、サーバはクライアントの影響を徐々にバランスさせ、最初は高いコントリビューションのクライアントに報酬を与え、その影響を徐々にレベルアップさせ、システムをStackelberg Equilibriumに誘導する。
論文 参考訳(メタデータ) (2025-01-05T21:04:41Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - IMFL-AIGC: Incentive Mechanism Design for Federated Learning Empowered by Artificial Intelligence Generated Content [15.620004060097155]
フェデレートラーニング(FL)は、クライアントがローカルデータをアップロードすることなく、共有グローバルモデルを協調的にトレーニングできる、有望なパラダイムとして登場した。
顧客参加を促すため,データ品質を考慮したインセンティブ機構を提案する。
提案したメカニズムは,トレーニングの精度が高く,実世界のデータセットによるサーバコストの最大53.34%を削減できる。
論文 参考訳(メタデータ) (2024-06-12T07:47:22Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。