論文の概要: Federated Learning as a Network Effects Game
- arxiv url: http://arxiv.org/abs/2302.08533v1
- Date: Thu, 16 Feb 2023 19:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:51:56.944503
- Title: Federated Learning as a Network Effects Game
- Title(参考訳): ネットワーク効果ゲームとしてのフェデレーション学習
- Authors: Shengyuan Hu, Dung Daniel Ngo, Shuran Zheng, Virginia Smith, Zhiwei
Steven Wu
- Abstract要約: Federated Learning (FL) は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、多くのクライアント間のコラボレーションを促進することを目的としている。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストを考慮して、FLに参加することの恩恵を受けないかもしれません。
私たちはFLにおけるクライアントの振る舞いをネットワークエフェクトゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
- 参考スコア(独自算出の注目度): 32.264180198812745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) aims to foster collaboration among a population of
clients to improve the accuracy of machine learning without directly sharing
local data. Although there has been rich literature on designing federated
learning algorithms, most prior works implicitly assume that all clients are
willing to participate in a FL scheme. In practice, clients may not benefit
from joining in FL, especially in light of potential costs related to issues
such as privacy and computation. In this work, we study the clients' incentives
in federated learning to help the service provider design better solutions and
ensure clients make better decisions. We are the first to model clients'
behaviors in FL as a network effects game, where each client's benefit depends
on other clients who also join the network. Using this setup we analyze the
dynamics of clients' participation and characterize the equilibrium, where no
client has incentives to alter their decision. Specifically, we show that
dynamics in the population naturally converge to equilibrium without needing
explicit interventions. Finally, we provide a cost-efficient payment scheme
that incentivizes clients to reach a desired equilibrium when the initial
network is empty.
- Abstract(参考訳): federated learning(fl)は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、クライアント間のコラボレーションを促進することを目的としている。
フェデレーション学習アルゴリズムの設計には豊富な文献があるが、ほとんどの先行研究は暗黙のうちにすべてのクライアントがflスキームに参加すると仮定している。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストの観点から、flに参加することの利益を享受できない。
本研究では,クライアントのフェデレート学習に対するインセンティブを調査し,サービス提供者がよりよいソリューションを設計し,クライアントがよりよい意思決定を行うことを支援する。
私たちはFLにおけるクライアントの振る舞いをネットワーク効果ゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
このセットアップを使用して、クライアントの参加のダイナミクスを分析し、クライアントが意思決定を変更するインセンティブを持っていない均衡を特徴づけます。
具体的には, 集団のダイナミクスが, 明示的な介入を必要とせずに自然に平衡に収束することを示す。
最後に,初期ネットワークが空である場合にクライアントが望ましい均衡に達するようにインセンティブを与える費用効率の高い支払い方式を提案する。
関連論文リスト
- Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Free-Rider Games for Federated Learning with Selfish Clients in NextG
Wireless Networks [1.1726528038065764]
本稿では,フェデレートラーニング(FL)におけるゲーム理論の枠組みについて述べる。
FLは、NextG通信のためのスペクトルセンシングをサポートするためにクライアントによって使用される。
フリーライディング行動は、グローバルモデル学習への貢献の欠如により、世界的な精度を低下させる可能性がある。
論文 参考訳(メタデータ) (2022-12-21T17:10:55Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。