論文の概要: Federated Learning as a Network Effects Game
- arxiv url: http://arxiv.org/abs/2302.08533v1
- Date: Thu, 16 Feb 2023 19:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:51:56.944503
- Title: Federated Learning as a Network Effects Game
- Title(参考訳): ネットワーク効果ゲームとしてのフェデレーション学習
- Authors: Shengyuan Hu, Dung Daniel Ngo, Shuran Zheng, Virginia Smith, Zhiwei
Steven Wu
- Abstract要約: Federated Learning (FL) は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、多くのクライアント間のコラボレーションを促進することを目的としている。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストを考慮して、FLに参加することの恩恵を受けないかもしれません。
私たちはFLにおけるクライアントの振る舞いをネットワークエフェクトゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
- 参考スコア(独自算出の注目度): 32.264180198812745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) aims to foster collaboration among a population of
clients to improve the accuracy of machine learning without directly sharing
local data. Although there has been rich literature on designing federated
learning algorithms, most prior works implicitly assume that all clients are
willing to participate in a FL scheme. In practice, clients may not benefit
from joining in FL, especially in light of potential costs related to issues
such as privacy and computation. In this work, we study the clients' incentives
in federated learning to help the service provider design better solutions and
ensure clients make better decisions. We are the first to model clients'
behaviors in FL as a network effects game, where each client's benefit depends
on other clients who also join the network. Using this setup we analyze the
dynamics of clients' participation and characterize the equilibrium, where no
client has incentives to alter their decision. Specifically, we show that
dynamics in the population naturally converge to equilibrium without needing
explicit interventions. Finally, we provide a cost-efficient payment scheme
that incentivizes clients to reach a desired equilibrium when the initial
network is empty.
- Abstract(参考訳): federated learning(fl)は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、クライアント間のコラボレーションを促進することを目的としている。
フェデレーション学習アルゴリズムの設計には豊富な文献があるが、ほとんどの先行研究は暗黙のうちにすべてのクライアントがflスキームに参加すると仮定している。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストの観点から、flに参加することの利益を享受できない。
本研究では,クライアントのフェデレート学習に対するインセンティブを調査し,サービス提供者がよりよいソリューションを設計し,クライアントがよりよい意思決定を行うことを支援する。
私たちはFLにおけるクライアントの振る舞いをネットワーク効果ゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
このセットアップを使用して、クライアントの参加のダイナミクスを分析し、クライアントが意思決定を変更するインセンティブを持っていない均衡を特徴づけます。
具体的には, 集団のダイナミクスが, 明示的な介入を必要とせずに自然に平衡に収束することを示す。
最後に,初期ネットワークが空である場合にクライアントが望ましい均衡に達するようにインセンティブを与える費用効率の高い支払い方式を提案する。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - How Can Incentives and Cut Layer Selection Influence Data Contribution in Split Federated Learning? [49.16923922018379]
スプリット・フェデレーション・ラーニング(SFL)は、フェデレーションとスプリット・ラーニングの利点を組み合わせることで、有望なアプローチとして登場した。
階層的意思決定手法を用いて,単一リーダマルチフォロワStackelbergゲームとして定式化された問題をモデル化する。
以上の結果から,Stackelberg平衡解はクライアントとSFLモデル所有者の両方の実用性を最大化することがわかった。
論文 参考訳(メタデータ) (2024-12-10T06:24:08Z) - A Potential Game Perspective in Federated Learning [7.066313314590149]
Federated Learning(FL)は、分散クライアント間で機械学習モデルをトレーニングするための新興パラダイムである。
本稿では,各クライアントの個々の努力とサーバが提供する報酬によって,各クライアントの支払いが決定される可能性のあるゲームフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T18:06:44Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。