論文の概要: Multi-Session Budget Optimization for Forward Auction-based Federated
Learning
- arxiv url: http://arxiv.org/abs/2311.12548v1
- Date: Tue, 21 Nov 2023 11:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 00:52:22.214340
- Title: Multi-Session Budget Optimization for Forward Auction-based Federated
Learning
- Title(参考訳): 前方オークション型フェデレーション学習のためのマルチセッション予算最適化
- Authors: Xiaoli Tang, Han Yu
- Abstract要約: 近年,オークションベースのフェデレートラーニング (Federated Learning, AFL) が重要な研究分野となっている。
我々は,事前オークションに基づくフェデレートラーニング(MultiBOS-AFL)のためのマルチセッション予算最適化戦略を提案する。
階層的強化学習に基づいて、MultiBOS-AFLは、AFL MUのセッション間予算ペーシングとセッション内入札を共同で最適化する。
- 参考スコア(独自算出の注目度): 17.546044136396468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auction-based Federated Learning (AFL) has emerged as an important research
field in recent years. The prevailing strategies for FL model users (MUs)
assume that the entire team of the required data owners (DOs) for an FL task
must be assembled before training can commence. In practice, an MU can trigger
the FL training process multiple times. DOs can thus be gradually recruited
over multiple FL model training sessions. Existing bidding strategies for AFL
MUs are not designed to handle such scenarios. Therefore, the problem of
multi-session AFL remains open. To address this problem, we propose the
Multi-session Budget Optimization Strategy for forward Auction-based Federated
Learning (MultiBOS-AFL). Based on hierarchical reinforcement learning,
MultiBOS-AFL jointly optimizes inter-session budget pacing and intra-session
bidding for AFL MUs, with the objective of maximizing the total utility.
Extensive experiments on six benchmark datasets show that it significantly
outperforms seven state-of-the-art approaches. On average, MultiBOS-AFL
achieves 12.28% higher utility, 14.52% more data acquired through auctions for
a given budget, and 1.23% higher test accuracy achieved by the resulting FL
model compared to the best baseline. To the best of our knowledge, it is the
first budget optimization decision support method with budget pacing capability
designed for MUs in multi-session forward auction-based federated learning
- Abstract(参考訳): 近年,オークションベースのフェデレートラーニング(AFL)が重要な研究分野となっている。
FLモデルユーザ(MU)の一般的な戦略は、FLタスクに必要なデータ所有者(DO)のチーム全体を、トレーニングを開始する前に組み立てなければならないと仮定している。
実際には、MUはFLトレーニングプロセスを複数回トリガーすることができる。
したがって、複数のFLモデルトレーニングセッションでDOを徐々に採用することができる。
AFL MUの既存の入札戦略はそのようなシナリオを扱うように設計されていない。
したがって、マルチセッションAFLの問題は未解決のままである。
この問題に対処するため,先進オークションベースのフェデレートラーニング(MultiBOS-AFL)のためのマルチセッション予算最適化戦略を提案する。
階層的強化学習に基づいて、MultiBOS-AFLは、AFL MUのセッション間予算ペーシングとセッション内入札を共同で最適化し、トータルユーティリティーを最大化する。
6つのベンチマークデータセットに対する大規模な実験は、7つの最先端のアプローチを大きく上回っていることを示している。
平均すると、MultiBOS-AFLは12.28%高いユーティリティ、与えられた予算の競売によって取得したデータ14.52%、そして結果のFLモデルが最高のベースラインよりも1.23%高いテスト精度を達成する。
我々の知る限りでは、マルチセッションフォワード型フェデレーション学習におけるMUのための予算ペーシング機能を備えた最初の予算最適化決定支援手法である。
関連論文リスト
- OpenFedLLM: Training Large Language Models on Decentralized Private Data
via Federated Learning [44.200613313936024]
大規模言語モデル (LLM) は様々な分野で大きな成功を収めている。
本稿では,フェデレートラーニング(FL)による未利用分散プライベートデータに対する,現代LLMトレーニングの次のステップを提案する。
私たちはOpenFedLLMという名前の簡潔で統合され、研究に優しいフレームワーク/コードベースを構築します。
命令追従能力を高めるためのフェデレーション命令チューニング、人間の値に合わせるためのフェデレーション値アライメント、および7つの代表FLアルゴリズムをカバーしている。
論文 参考訳(メタデータ) (2024-02-10T13:50:11Z) - Hire When You Need to: Gradual Participant Recruitment for Auction-based
Federated Learning [16.83897148104]
フェデレートラーニング(GPS-AFL)のための段階的参加者選択方式を提案する。
GPS-AFLは、反復的な相互作用によってより多くの情報が明らかになるにつれて、必要なDOを複数の訓練ラウンドで徐々に選択する。
評価に基づくFLにおける選択バイアスの欠点を軽減しつつ、コスト削減と性能向上のバランスをとるように設計されている。
論文 参考訳(メタデータ) (2023-10-04T08:19:04Z) - Utility-Maximizing Bidding Strategy for Data Consumers in Auction-based
Federated Learning [14.410324763825733]
オークションベースのフェデレートラーニング(Federated Learning, AFL)は、データ所有者が経済的手段でFLに参加する動機付け能力によって、幅広い研究の関心を集めている。
本稿では、フェデレートラーニングにおけるデータ消費者のための実用性最優先入札戦略(Fed-Bidder)を提案する。
論文 参考訳(メタデータ) (2023-05-11T13:16:36Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - GTFLAT: Game Theory Based Add-On For Empowering Federated Learning
Aggregation Techniques [0.3867363075280543]
GTFLATはゲーム理論に基づくアドオンであり、重要な研究課題に対処する。
モデル集約フェーズにおける平均化に対してより効果的な適応重みを設定することにより、フェデレーション学習アルゴリズムは、より優れたパフォーマンスと訓練効率を実現することができるのか?
その結果、GTFLATを平均するとトップ1テストの精度は1.38%向上し、通信ラウンドは21.06%削減された。
論文 参考訳(メタデータ) (2022-12-08T06:39:51Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Anarchic Federated Learning [9.440407984695904]
我々は、Anarchic Federated Learning' (AFL)と呼ばれる連邦学習の新しいパラダイムを提案する。
AFLでは、各作業者は、(i)いつFLに参加するか、(i)現在の状況に基づいて各ラウンドで行うローカルステップの数を選択できる。
クロスデバイスとクロスサイロの両方の設定に対して、双方向の学習率を持つ2つのAnarchic FedAvgライクなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-23T00:38:37Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。