論文の概要: DaringFed: A Dynamic Bayesian Persuasion Pricing for Online Federated Learning under Two-sided Incomplete Information
- arxiv url: http://arxiv.org/abs/2505.05842v1
- Date: Fri, 09 May 2025 07:24:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.18486
- Title: DaringFed: A Dynamic Bayesian Persuasion Pricing for Online Federated Learning under Two-sided Incomplete Information
- Title(参考訳): DaringFed: 双方向の不完全情報に基づくオンラインフェデレーション学習のための動的ベイズ的説得価格
- Authors: Yun Xin, Jianfeng Lu, Shuqin Cao, Gang Li, Haozhao Wang, Guanghui Wen,
- Abstract要約: オンラインフェデレートラーニング(オンラインフェデレーションラーニング、英: Online Federated Learning、OFL)は、ランダムに到着するクライアントごとにパラメータアグリゲーションを順次実行するリアルタイム学習パラダイムである。
OFLへの参加を動機付けるためには、トレーニングリソースの消費を相殺するための適切なインセンティブを提供することが不可欠である。
我々は,オンライン・フェデレート・ラーニング(DaringFed)のための新しい動的ベイズ的説得価格をTIIの下で設計する。
- 参考スコア(独自算出の注目度): 13.386578542329545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online Federated Learning (OFL) is a real-time learning paradigm that sequentially executes parameter aggregation immediately for each random arriving client. To motivate clients to participate in OFL, it is crucial to offer appropriate incentives to offset the training resource consumption. However, the design of incentive mechanisms in OFL is constrained by the dynamic variability of Two-sided Incomplete Information (TII) concerning resources, where the server is unaware of the clients' dynamically changing computational resources, while clients lack knowledge of the real-time communication resources allocated by the server. To incentivize clients to participate in training by offering dynamic rewards to each arriving client, we design a novel Dynamic Bayesian persuasion pricing for online Federated learning (DaringFed) under TII. Specifically, we begin by formulating the interaction between the server and clients as a dynamic signaling and pricing allocation problem within a Bayesian persuasion game, and then demonstrate the existence of a unique Bayesian persuasion Nash equilibrium. By deriving the optimal design of DaringFed under one-sided incomplete information, we further analyze the approximate optimal design of DaringFed with a specific bound under TII. Finally, extensive evaluation conducted on real datasets demonstrate that DaringFed optimizes accuracy and converges speed by 16.99%, while experiments with synthetic datasets validate the convergence of estimate unknown values and the effectiveness of DaringFed in improving the server's utility by up to 12.6%.
- Abstract(参考訳): オンラインフェデレートラーニング(オンラインフェデレーションラーニング、英: Online Federated Learning、OFL)は、ランダムに到着する各クライアントに対して、パラメータアグリゲーションを順次実行するリアルタイム学習パラダイムである。
OFLへの参加を動機付けるためには、トレーニングリソースの消費を相殺するための適切なインセンティブを提供することが不可欠である。
しかし、OFLにおけるインセンティブ機構の設計は、サーバがクライアントの動的に変化する計算リソースを知らない場合、クライアントがサーバが割り当てるリアルタイム通信リソースの知識を欠いている場合、リソースに関する双方向不完全情報(TII)の動的変動によって制約される。
顧客が到着する各顧客に動的報酬を提供することで、トレーニングに参加するためのインセンティブを与えるため、我々は、オンラインフェデレートラーニング(DaringFed)のための新しい動的ベイズパーサー(Dynamic Bayesian Persuasion)をTIIの下で設計する。
具体的には,サーバとクライアント間のインタラクションをベイジアン説得ゲームにおける動的シグナリングと価格配分問題として定式化し,ベイジアン説得ナッシュ均衡の存在を実証することから始める。
片側不完全情報に基づいてDaringFedの最適設計を導出することにより、TIIの下での特定の境界でDaringFedの近似最適設計をさらに解析する。
最後に、実際のデータセット上で行われた広範な評価は、DaringFedが精度を最適化し、速度を16.99%向上させることを示した。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - A Potential Game Perspective in Federated Learning [7.066313314590149]
Federated Learning(FL)は、分散クライアント間で機械学習モデルをトレーニングするための新興パラダイムである。
本稿では,各クライアントの個々の努力とサーバが提供する報酬によって,各クライアントの支払いが決定される可能性のあるゲームフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T18:06:44Z) - IMFL-AIGC: Incentive Mechanism Design for Federated Learning Empowered by Artificial Intelligence Generated Content [15.620004060097155]
フェデレートラーニング(FL)は、クライアントがローカルデータをアップロードすることなく、共有グローバルモデルを協調的にトレーニングできる、有望なパラダイムとして登場した。
顧客参加を促すため,データ品質を考慮したインセンティブ機構を提案する。
提案したメカニズムは,トレーニングの精度が高く,実世界のデータセットによるサーバコストの最大53.34%を削減できる。
論文 参考訳(メタデータ) (2024-06-12T07:47:22Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - Federated Learning as a Network Effects Game [32.264180198812745]
Federated Learning (FL) は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、多くのクライアント間のコラボレーションを促進することを目的としている。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストを考慮して、FLに参加することの恩恵を受けないかもしれません。
私たちはFLにおけるクライアントの振る舞いをネットワークエフェクトゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
論文 参考訳(メタデータ) (2023-02-16T19:10:12Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。