論文の概要: A Service-Oriented Adaptive Hierarchical Incentive Mechanism for Federated Learning
- arxiv url: http://arxiv.org/abs/2509.10512v1
- Date: Wed, 03 Sep 2025 03:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.769473
- Title: A Service-Oriented Adaptive Hierarchical Incentive Mechanism for Federated Learning
- Title(参考訳): フェデレーション学習のためのサービス指向適応型階層型インセンティブメカニズム
- Authors: Jiaxing Cao, Yuzhou Gao, Jiwei Huang,
- Abstract要約: 分散モデルトレーニングのための新しいフレームワークとして、フェデレートラーニング(FL)が登場した。
本稿では,TP,LMO,および労働者の効用を最大化する適応型インセンティブ機構を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, federated learning (FL) has emerged as a novel framework for distributed model training. In FL, the task publisher (TP) releases tasks, and local model owners (LMOs) use their local data to train models. Sometimes, FL suffers from the lack of training data, and thus workers are recruited for gathering data. To this end, this paper proposes an adaptive incentive mechanism from a service-oriented perspective, with the objective of maximizing the utilities of TP, LMOs and workers. Specifically, a Stackelberg game is theoretically established between the LMOs and TP, positioning TP as the leader and the LMOs as followers. An analytical Nash equilibrium solution is derived to maximize their utilities. The interaction between LMOs and workers is formulated by a multi-agent Markov decision process (MAMDP), with the optimal strategy identified via deep reinforcement learning (DRL). Additionally, an Adaptively Searching the Optimal Strategy Algorithm (ASOSA) is designed to stabilize the strategies of each participant and solve the coupling problems. Extensive numerical experiments are conducted to validate the efficacy of the proposed method.
- Abstract(参考訳): 近年,分散モデル学習のための新しいフレームワークとしてフェデレートラーニング(FL)が登場している。
FLではタスクパブリッシャ(TP)がタスクをリリースし、ローカルモデルオーナ(LMO)がローカルデータを使用してモデルをトレーニングする。
FLはトレーニングデータの不足に悩まされ、データ収集のために労働者が採用されることもある。
そこで本研究では,サービス指向の観点から,TP,LMO,作業者の実用性を最大化することを目的とした適応型インセンティブ機構を提案する。
特に、スタックルバーグゲームは理論上、LMOとTPの間に確立され、TPがリーダー、LMOがフォロワーとして位置づけられる。
分析的ナッシュ平衡解は、それらの効用を最大化するために導出される。
LMOと労働者の相互作用は、マルチエージェントマルコフ決定プロセス(MAMDP)によって定式化され、深層強化学習(DRL)を介して最適な戦略が特定される。
さらに,ASOSA (Adaptively Searching the Optimal Strategy Algorithm) は,各参加者の戦略を安定させ,結合問題の解決を目的としている。
提案手法の有効性を検証するため, 大規模数値実験を行った。
関連論文リスト
- Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - FedPref: Federated Learning Across Heterogeneous Multi-objective Preferences [2.519319150166215]
Federated Learning(FL)は、トレーニングデータが分散デバイスによって所有され、共有できない設定のために開発された分散機械学習戦略である。
FLの現実的な設定への応用は、参加者間の不均一性に関連する新たな課題をもたらします。
この設定でパーソナライズされたFLを促進するために設計された最初のアルゴリズムであるFedPrefを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:12:59Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。