論文の概要: Incentive Mechanisms for Federated Learning: From Economic and Game
Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2111.11850v1
- Date: Sat, 20 Nov 2021 07:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 15:58:32.689291
- Title: Incentive Mechanisms for Federated Learning: From Economic and Game
Theoretic Perspective
- Title(参考訳): フェデレーション学習のインセンティブメカニズム:経済とゲーム理論の観点から
- Authors: Xuezhen Tu, Kun Zhu, Nguyen Cong Luong, Dusit Niyato, Yang Zhang, and
Juan Li
- Abstract要約: フェデレートラーニング(FL)は、所有者の生データを公開せずに、大規模機械学習(ML)モデルをトレーニングする大きな可能性を示している。
FLでは、データ所有者は、ローカルデータに基づいてMLモデルをトレーニングすることができ、モデルの所有者に生データではなくモデル更新を送信してアグリゲーションを行うことができる。
モデル精度とトレーニング完了時間の観点から学習性能を向上させるためには,十分な参加者を募集することが不可欠である。
- 参考スコア(独自算出の注目度): 42.50367925564069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) becomes popular and has shown great potentials in
training large-scale machine learning (ML) models without exposing the owners'
raw data. In FL, the data owners can train ML models based on their local data
and only send the model updates rather than raw data to the model owner for
aggregation. To improve learning performance in terms of model accuracy and
training completion time, it is essential to recruit sufficient participants.
Meanwhile, the data owners are rational and may be unwilling to participate in
the collaborative learning process due to the resource consumption. To address
the issues, there have been various works recently proposed to motivate the
data owners to contribute their resources. In this paper, we provide a
comprehensive review for the economic and game theoretic approaches proposed in
the literature to design various schemes for stimulating data owners to
participate in FL training process. In particular, we first present the
fundamentals and background of FL, economic theories commonly used in incentive
mechanism design. Then, we review applications of game theory and economic
approaches applied for incentive mechanisms design of FL. Finally, we highlight
some open issues and future research directions concerning incentive mechanism
design of FL.
- Abstract(参考訳): フェデレートラーニング(FL)が普及し、所有者の生データを公開せずに大規模機械学習(ML)モデルをトレーニングする大きな可能性を示している。
flでは、データオーナは自身のローカルデータに基づいてmlモデルをトレーニングし、集約のために生データではなくモデルアップデートのみをモデルオーナに送ることができる。
モデル精度とトレーニング完了時間の観点から学習性能を向上させるためには,十分な参加者を募集することが不可欠である。
一方、データ所有者は合理的であり、リソース消費のために協調学習プロセスに参加することを望まないかもしれない。
この問題に対処するために、最近、データ所有者がリソースに寄与する動機づけとなる様々な取り組みが提案されている。
本稿では、FLトレーニングプロセスにデータ所有者が参加するための様々なスキームを設計するために、文献で提案されている経済理論とゲーム理論のアプローチを総合的にレビューする。
特に,インセンティブ機構設計において一般的に用いられる経済理論であるflの基礎と背景を最初に提示する。
そこで我々は,FLのインセンティブメカニズム設計にゲーム理論と経済的なアプローチを適用した。
最後に,FLのインセンティブメカニズム設計に関するオープンな課題と今後の研究方向性について述べる。
関連論文リスト
- Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。