論文の概要: Multi-Session Budget Optimization for Forward Auction-based Federated
Learning
- arxiv url: http://arxiv.org/abs/2311.12548v1
- Date: Tue, 21 Nov 2023 11:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 00:52:22.214340
- Title: Multi-Session Budget Optimization for Forward Auction-based Federated
Learning
- Title(参考訳): 前方オークション型フェデレーション学習のためのマルチセッション予算最適化
- Authors: Xiaoli Tang, Han Yu
- Abstract要約: 近年,オークションベースのフェデレートラーニング (Federated Learning, AFL) が重要な研究分野となっている。
我々は,事前オークションに基づくフェデレートラーニング(MultiBOS-AFL)のためのマルチセッション予算最適化戦略を提案する。
階層的強化学習に基づいて、MultiBOS-AFLは、AFL MUのセッション間予算ペーシングとセッション内入札を共同で最適化する。
- 参考スコア(独自算出の注目度): 17.546044136396468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auction-based Federated Learning (AFL) has emerged as an important research
field in recent years. The prevailing strategies for FL model users (MUs)
assume that the entire team of the required data owners (DOs) for an FL task
must be assembled before training can commence. In practice, an MU can trigger
the FL training process multiple times. DOs can thus be gradually recruited
over multiple FL model training sessions. Existing bidding strategies for AFL
MUs are not designed to handle such scenarios. Therefore, the problem of
multi-session AFL remains open. To address this problem, we propose the
Multi-session Budget Optimization Strategy for forward Auction-based Federated
Learning (MultiBOS-AFL). Based on hierarchical reinforcement learning,
MultiBOS-AFL jointly optimizes inter-session budget pacing and intra-session
bidding for AFL MUs, with the objective of maximizing the total utility.
Extensive experiments on six benchmark datasets show that it significantly
outperforms seven state-of-the-art approaches. On average, MultiBOS-AFL
achieves 12.28% higher utility, 14.52% more data acquired through auctions for
a given budget, and 1.23% higher test accuracy achieved by the resulting FL
model compared to the best baseline. To the best of our knowledge, it is the
first budget optimization decision support method with budget pacing capability
designed for MUs in multi-session forward auction-based federated learning
- Abstract(参考訳): 近年,オークションベースのフェデレートラーニング(AFL)が重要な研究分野となっている。
FLモデルユーザ(MU)の一般的な戦略は、FLタスクに必要なデータ所有者(DO)のチーム全体を、トレーニングを開始する前に組み立てなければならないと仮定している。
実際には、MUはFLトレーニングプロセスを複数回トリガーすることができる。
したがって、複数のFLモデルトレーニングセッションでDOを徐々に採用することができる。
AFL MUの既存の入札戦略はそのようなシナリオを扱うように設計されていない。
したがって、マルチセッションAFLの問題は未解決のままである。
この問題に対処するため,先進オークションベースのフェデレートラーニング(MultiBOS-AFL)のためのマルチセッション予算最適化戦略を提案する。
階層的強化学習に基づいて、MultiBOS-AFLは、AFL MUのセッション間予算ペーシングとセッション内入札を共同で最適化し、トータルユーティリティーを最大化する。
6つのベンチマークデータセットに対する大規模な実験は、7つの最先端のアプローチを大きく上回っていることを示している。
平均すると、MultiBOS-AFLは12.28%高いユーティリティ、与えられた予算の競売によって取得したデータ14.52%、そして結果のFLモデルが最高のベースラインよりも1.23%高いテスト精度を達成する。
我々の知る限りでは、マルチセッションフォワード型フェデレーション学習におけるMUのための予算ペーシング機能を備えた最初の予算最適化決定支援手法である。
関連論文リスト
- Resource-Efficient Federated Multimodal Learning via Layer-wise and Progressive Training [15.462969044840868]
LW-FedMMLは,学習プロセスを複数の段階に分解する階層型多モーダル学習手法である。
提案手法の有効性を検証するため,様々なFLおよびマルチモーダル学習環境にまたがる広範囲な実験を行った。
具体的には、LW-FedMMLはメモリ使用量を最大2.7Times$、計算処理(FLOP)を2.4times$、通信総コストを2.3times$に削減する。
論文 参考訳(メタデータ) (2024-07-22T07:06:17Z) - Iterative Nash Policy Optimization: Aligning LLMs with General Preferences via No-Regret Learning [55.65738319966385]
我々は、新しいオンラインアルゴリズム、反復的ナッシュポリシー最適化(INPO)を提案する。
従来の方法とは異なり、INPOは個々の応答に対する期待される勝利率を推定する必要性を回避している。
LLaMA-3-8BベースのSFTモデルで、INPOはAlpacaEval 2.0で42.6%、Arena-Hardで37.8%の勝利率を達成した。
論文 参考訳(メタデータ) (2024-06-30T08:00:34Z) - Agent-oriented Joint Decision Support for Data Owners in Auction-based Federated Learning [32.6997332038178]
オークションベースのフェデレートラーニング(Federated Learning, AFL)は、データ所有者(DO)が経済的手段でFLに参加することを動機付ける能力から、幅広い研究の関心を集めている。
AFL(PAS-AFL)におけるデータ所有者のための一級エージェント指向共同価格・受け入れ・サブデリゲーション決定支援手法を提案する。
各 DO が複数の FL タスクを同時に実行して DO の高収入化と AFL エコシステムにおける FL タスクのスループット向上を可能にするのは,これが初めてである。
論文 参考訳(メタデータ) (2024-05-09T02:35:46Z) - Hire When You Need to: Gradual Participant Recruitment for Auction-based
Federated Learning [16.83897148104]
フェデレートラーニング(GPS-AFL)のための段階的参加者選択方式を提案する。
GPS-AFLは、反復的な相互作用によってより多くの情報が明らかになるにつれて、必要なDOを複数の訓練ラウンドで徐々に選択する。
評価に基づくFLにおける選択バイアスの欠点を軽減しつつ、コスト削減と性能向上のバランスをとるように設計されている。
論文 参考訳(メタデータ) (2023-10-04T08:19:04Z) - Utility-Maximizing Bidding Strategy for Data Consumers in Auction-based
Federated Learning [14.410324763825733]
オークションベースのフェデレートラーニング(Federated Learning, AFL)は、データ所有者が経済的手段でFLに参加する動機付け能力によって、幅広い研究の関心を集めている。
本稿では、フェデレートラーニングにおけるデータ消費者のための実用性最優先入札戦略(Fed-Bidder)を提案する。
論文 参考訳(メタデータ) (2023-05-11T13:16:36Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - GTFLAT: Game Theory Based Add-On For Empowering Federated Learning
Aggregation Techniques [0.3867363075280543]
GTFLATはゲーム理論に基づくアドオンであり、重要な研究課題に対処する。
モデル集約フェーズにおける平均化に対してより効果的な適応重みを設定することにより、フェデレーション学習アルゴリズムは、より優れたパフォーマンスと訓練効率を実現することができるのか?
その結果、GTFLATを平均するとトップ1テストの精度は1.38%向上し、通信ラウンドは21.06%削減された。
論文 参考訳(メタデータ) (2022-12-08T06:39:51Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。