論文の概要: A Contract Theory based Incentive Mechanism for Federated Learning
- arxiv url: http://arxiv.org/abs/2108.05568v1
- Date: Thu, 12 Aug 2021 07:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-14 00:54:36.074375
- Title: A Contract Theory based Incentive Mechanism for Federated Learning
- Title(参考訳): 連合学習のための契約理論に基づくインセンティブ機構
- Authors: Mengmeng Tian, Yuxin Chen, Yuan Liu, Zehui Xiong, Cyril Leung, Chunyan
Miao
- Abstract要約: フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
- 参考スコア(独自算出の注目度): 52.24418084256517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) serves as a data privacy-preserved machine learning
paradigm, and realizes the collaborative model trained by distributed clients.
To accomplish an FL task, the task publisher needs to pay financial incentives
to the FL server and FL server offloads the task to the contributing FL
clients. It is challenging to design proper incentives for the FL clients due
to the fact that the task is privately trained by the clients. This paper aims
to propose a contract theory based FL task training model towards minimizing
incentive budget subject to clients being individually rational (IR) and
incentive compatible (IC) in each FL training round. We design a
two-dimensional contract model by formally defining two private types of
clients, namely data quality and computation effort. To effectively aggregate
the trained models, a contract-based aggregator is proposed. We analyze the
feasible and optimal contract solutions to the proposed contract model.
%Experimental results demonstrate that the proposed framework and contract
model can effective improve the generation accuracy of FL tasks. Experimental
results show that the generalization accuracy of the FL tasks can be improved
by the proposed incentive mechanism where contract-based aggregation is
applied.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、flクライアントに適切なインセンティブを設計することは困難である。
本稿では,契約理論に基づくFLタスクトレーニングモデルを提案する。各FLトレーニングラウンドにおいて,クライアントが個別に合理的(IR)かつインセンティブ互換(IC)である場合のインセンティブ予算を最小化する。
データ品質と計算作業という2種類のプライベートクライアントを正式に定義することで,2次元契約モデルを設計する。
モデルを効果的に集約するために,契約ベースのアグリゲータを提案する。
提案する契約モデルに対する実現可能かつ最適な契約ソリューションについて分析する。
%実験の結果,提案手法と契約モデルがflタスクの生成精度を効果的に向上できることが確認された。
実験の結果,契約ベースのアグリゲーションを適用したインセンティブ機構により,flタスクの一般化精度を向上させることができた。
関連論文リスト
- Fair Concurrent Training of Multiple Models in Federated Learning [32.74516106486226]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする。
近年のFLアプリケーションは、複数のFLタスクを同時にトレーニングする必要がある。
現在のMMFLアルゴリズムは、単純平均ベースのクライアントタスク割り当てスキームを使用している。
本稿では,各トレーニングラウンドにおけるタスクに動的にクライアントを割り当てる難易度認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-22T02:41:10Z) - A Survey on Efficient Federated Learning Methods for Foundation Model
Training [66.19763977571114]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Price-Discrimination Game for Distributed Resource Management in Federated Learning [3.724337025141794]
FedAvgのようなバニラ連合学習(FL)では、パラメータサーバ(PS)と複数の分散クライアントが典型的な買い手市場を形成する。
本稿では、異なるクライアントに対して同じサービス価格を提供するのではなく、異なるクライアントが提供するサービスの価格を区別することを提案する。
論文 参考訳(メタデータ) (2023-08-26T10:09:46Z) - BARA: Efficient Incentive Mechanism with Online Reward Budget Allocation
in Cross-Silo Federated Learning [25.596968764427043]
Federated Learning(FL)は、データプライバシを保護可能な、予測可能な分散機械学習フレームワークである。
クロスサイロFLでは、データ所有者がFLトレーニングにモデルを貢献するためのインセンティブメカニズムが不可欠である。
本稿では,BARA というベイズ最適化を用いたオンライン報酬予算配分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-09T07:36:01Z) - Can Fair Federated Learning reduce the need for Personalisation? [9.595853312558276]
フェデレートラーニング(FL)は、データを共有することなく、エッジクライアント上でMLモデルをトレーニングすることを可能にする。
本稿では、Fair FL (FFL) アルゴリズムをパーソナライゼーションの出発点として評価する。
本研究では,個人化を意識したフェデレーション学習(PaFL)を,トレーニング中に個人化損失を事前に活用するパラダイムとして提案する。
論文 参考訳(メタデータ) (2023-05-04T11:03:33Z) - Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective [1.749935196721634]
Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2023-02-17T16:31:19Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。