論文の概要: Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation
- arxiv url: http://arxiv.org/abs/2304.07981v1
- Date: Mon, 17 Apr 2023 04:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:23:48.447702
- Title: Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation
- Title(参考訳): ランダム化クライアント参加型非バイアスフェデレーション学習のためのインセンティブ機構設計
- Authors: Bing Luo, Yutong Feng, Shiqiang Wang, Jianwei Huang, Leandros
Tassiulas
- Abstract要約: 本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
- 参考スコア(独自算出の注目度): 31.2017942327673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incentive mechanism is crucial for federated learning (FL) when rational
clients do not have the same interests in the global model as the server.
However, due to system heterogeneity and limited budget, it is generally
impractical for the server to incentivize all clients to participate in all
training rounds (known as full participation). The existing FL incentive
mechanisms are typically designed by stimulating a fixed subset of clients
based on their data quantity or system resources. Hence, FL is performed only
using this subset of clients throughout the entire training process, leading to
a biased model because of data heterogeneity. This paper proposes a game
theoretic incentive mechanism for FL with randomized client participation,
where the server adopts a customized pricing strategy that motivates different
clients to join with different participation levels (probabilities) for
obtaining an unbiased and high performance model. Each client responds to the
server's monetary incentive by choosing its best participation level, to
maximize its profit based on not only the incurred local cost but also its
intrinsic value for the global model. To effectively evaluate clients'
contribution to the model performance, we derive a new convergence bound which
analytically predicts how clients' arbitrary participation levels and their
heterogeneous data affect the model performance. By solving a non-convex
optimization problem, our analysis reveals that the intrinsic value leads to
the interesting possibility of bidirectional payment between the server and
clients. Experimental results using real datasets on a hardware prototype
demonstrate the superiority of our mechanism in achieving higher model
performance for the server as well as higher profits for the clients.
- Abstract(参考訳): 合理的クライアントがサーバとグローバルモデルに同じ関心を持っていない場合、インセンティブメカニズムは連邦学習(FL)にとって不可欠である。
しかしながら、システムの不均一性と予算の制限のため、サーバがすべてのクライアントに対してすべてのトレーニングラウンド(フル参加と呼ばれる)に参加する動機を与えるのは現実的ではない。
既存のflインセンティブメカニズムは、通常、データ量やシステムリソースに基づいてクライアントの固定サブセットを刺激することによって設計される。
したがって、flはトレーニングプロセス全体を通して、このサブセットのクライアントのみを使用して実行されるため、データの多様性のためにバイアスモデルとなる。
本稿では,ランダム化されたクライアント参加を伴うflのゲーム理論的インセンティブ機構を提案する。サーバは,異なるクライアントが異なる参加レベル(確率)に参加することを動機づけるカスタマイズされた価格戦略を採用し,偏りのないハイパフォーマンスモデルを得る。
各クライアントは、最も優れた参加レベルを選択してサーバの金銭的インセンティブに反応し、その利益を、発生したローカルコストだけでなく、グローバルモデルに対する本質的な価値に基づいて最大化する。
モデル性能に対するクライアントの貢献を効果的に評価するために、クライアントの任意の参加レベルとその異種データがモデル性能に与える影響を解析的に予測する新しい収束境界を導出する。
非凸最適化問題を解くことにより,本分析の結果,サーバとクライアント間の双方向支払いの可能性が示唆された。
ハードウェアプロトタイプ上の実データセットを用いた実験の結果,サーバのモデル性能向上とクライアントの利益向上の機構の優位性が実証された。
関連論文リスト
- SFedCA: Credit Assignment-Based Active Client Selection Strategy for Spiking Federated Learning [15.256986486372407]
フェデレーション学習のスパイクにより、リソースに制約のあるデバイスは、ローカルデータを交換することなく、低消費電力で協調的にトレーニングできる。
既存のスパイキングフェデレーション学習手法では、クライアントのアグリゲーションに対してランダムな選択アプローチを採用しており、不偏なクライアントの参加を前提としている。
本研究では,グローバルなサンプル分布バランスに寄与するクライアントを鑑定するために,クレジット割当に基づくアクティブクライアント選択戦略であるSFedCAを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:56:22Z) - IMFL-AIGC: Incentive Mechanism Design for Federated Learning Empowered by Artificial Intelligence Generated Content [15.620004060097155]
フェデレートラーニング(FL)は、クライアントがローカルデータをアップロードすることなく、共有グローバルモデルを協調的にトレーニングできる、有望なパラダイムとして登場した。
顧客参加を促すため,データ品質を考慮したインセンティブ機構を提案する。
提案したメカニズムは,トレーニングの精度が高く,実世界のデータセットによるサーバコストの最大53.34%を削減できる。
論文 参考訳(メタデータ) (2024-06-12T07:47:22Z) - Federated Learning as a Network Effects Game [32.264180198812745]
Federated Learning (FL) は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、多くのクライアント間のコラボレーションを促進することを目的としている。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストを考慮して、FLに参加することの恩恵を受けないかもしれません。
私たちはFLにおけるクライアントの振る舞いをネットワークエフェクトゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
論文 参考訳(メタデータ) (2023-02-16T19:10:12Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Prior-Free Auctions for the Demand Side of Federated Learning [0.76146285961466]
連合学習は、分散クライアントがセンシティブなトレーニングデータを共有することなく、共有機械学習モデルを学ぶことを可能にする。
自己関心のある顧客から金銭的貢献を集めるためのメカニズムfipfaを提案する。
MNISTデータセット上で実験を行い、FIPFAおよびFIPFAのインセンティブ特性に基づいて顧客のモデル品質をテストします。
論文 参考訳(メタデータ) (2021-03-26T10:22:18Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。