論文の概要: Adaptive incentive for cross-silo federated learning: A multi-agent
reinforcement learning approach
- arxiv url: http://arxiv.org/abs/2302.07493v1
- Date: Wed, 15 Feb 2023 06:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 15:43:52.246772
- Title: Adaptive incentive for cross-silo federated learning: A multi-agent
reinforcement learning approach
- Title(参考訳): クロスサイロ連合学習に対する適応的インセンティブ--マルチエージェント強化学習アプローチ
- Authors: Shijing Yuan, Hongze Liu, Hongtao Lv, Zhanbo Feng, Jie Li, Hongyang
Chen and Chentao Wu
- Abstract要約: クロスサイロ・フェデレーション・ラーニング(FL)は、組織が独立したデータに基づいてグローバルモデルをトレーニングすることを可能にする。
組織にデータ提供を動機付けるための,クロスサイロFLの新しい適応機構を提案する。
- 参考スコア(独自算出の注目度): 12.596779831510508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-silo federated learning (FL) is a typical FL that enables
organizations(e.g., financial or medical entities) to train global models on
isolated data. Reasonable incentive is key to encouraging organizations to
contribute data. However, existing works on incentivizing cross-silo FL lack
consideration of the environmental dynamics (e.g., precision of the trained
global model and data owned by uncertain clients during the training
processes). Moreover, most of them assume that organizations share private
information, which is unrealistic. To overcome these limitations, we propose a
novel adaptive mechanism for cross-silo FL, towards incentivizing organizations
to contribute data to maximize their long-term payoffs in a real dynamic
training environment. The mechanism is based on multi-agent reinforcement
learning, which learns near-optimal data contribution strategy from the history
of potential games without organizations' private information. Experiments
demonstrate that our mechanism achieves adaptive incentive and effectively
improves the long-term payoffs for organizations.
- Abstract(参考訳): クロスサイロ連合学習(cross-silo federated learning, fl)は、組織(金融や医療など)が孤立したデータ上でグローバルモデルをトレーニングできる典型的なflである。
適切なインセンティブは、組織にデータ提供を促すための鍵です。
しかしながら、クロスサイロflのインセンティブ化に関する既存の研究は、環境力学(例えば、訓練されたグローバルモデルと、訓練プロセス中に不確定なクライアントが所有するデータの正確さ)の考慮を欠いている。
さらに、多くの場合、組織はプライベート情報を共有していると仮定している。
このような制約を克服するため,我々は,組織にデータ提供を奨励し,よりダイナミックなトレーニング環境における長期給付を最大化するための,クロスサイロFLの新しい適応メカニズムを提案する。
このメカニズムはマルチエージェント強化学習に基づいており、組織のプライベート情報なしで潜在的ゲームの歴史からほぼ最適なデータコントリビューション戦略を学ぶ。
実験により、我々のメカニズムは適応的なインセンティブを達成し、組織に対する長期的な報酬を効果的に改善することを示した。
関連論文リスト
- Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective [1.749935196721634]
Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2023-02-17T16:31:19Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Incentivizing Federated Learning [2.420324724613074]
本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
理論的には、ある条件下では、クライアントがフェデレーション学習に参加できる限り多くのデータを使用することを証明します。
論文 参考訳(メタデータ) (2022-05-22T23:02:43Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - LotteryFL: Personalized and Communication-Efficient Federated Learning
with Lottery Ticket Hypothesis on Non-IID Datasets [52.60094373289771]
フェデレーション学習は、プライバシーを強化した、人気のある分散機械学習パラダイムである。
パーソナライズされたコミュニケーション効率の高いフェデレーション学習フレームワークであるLotteryFLを提案する。
LotteryFLはパーソナライズと通信コストの点で既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2020-08-07T20:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。