論文の概要: BIPPO: Budget-Aware Independent PPO for Energy-Efficient Federated Learning Services
- arxiv url: http://arxiv.org/abs/2511.08142v1
- Date: Wed, 12 Nov 2025 01:42:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.664073
- Title: BIPPO: Budget-Aware Independent PPO for Energy-Efficient Federated Learning Services
- Title(参考訳): BIPPO:エネルギー効率の良いフェデレーションラーニングサービスのための予算対応独立型PPO
- Authors: Anna Lackinger, Andrea Morichetta, Pantelis A. Frangoudis, Schahram Dustdar,
- Abstract要約: Federated Learning(FL)は、大規模なIoTシステムにおいて、有望な機械学習ソリューションである。
FLはインフラの効率を考慮せず、資源に制約のある環境で運用するシステムにとって重要な懸念事項である。
本稿では,エネルギー効率の良いマルチエージェントRLソリューションであるBIPPOを提案する。
- 参考スコア(独自算出の注目度): 6.256225391318992
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) is a promising machine learning solution in large-scale IoT systems, guaranteeing load distribution and privacy. However, FL does not natively consider infrastructure efficiency, a critical concern for systems operating in resource-constrained environments. Several Reinforcement Learning (RL) based solutions offer improved client selection for FL; however, they do not consider infrastructure challenges, such as resource limitations and device churn. Furthermore, the training of RL methods is often not designed for practical application, as these approaches frequently do not consider generalizability and are not optimized for energy efficiency. To fill this gap, we propose BIPPO (Budget-aware Independent Proximal Policy Optimization), which is an energy-efficient multi-agent RL solution that improves performance. We evaluate BIPPO on two image classification tasks run in a highly budget-constrained setting, with FL clients training on non-IID data, a challenging context for vanilla FL. The improved sampler of BIPPO enables it to increase the mean accuracy compared to non-RL mechanisms, traditional PPO, and IPPO. In addition, BIPPO only consumes a negligible proportion of the budget, which stays consistent even if the number of clients increases. Overall, BIPPO delivers a performant, stable, scalable, and sustainable solution for client selection in IoT-FL.
- Abstract(参考訳): Federated Learning(FL)は、大規模IoTシステムにおける有望な機械学習ソリューションであり、負荷分散とプライバシを保証する。
しかし、FLはインフラの効率を本質的に考慮していない。
いくつかの強化学習(RL)ベースのソリューションはFLのクライアント選択を改善するが、リソース制限やデバイスチャーンといったインフラ上の課題は考慮していない。
さらに、RL法の訓練は、一般化性を考慮しておらず、エネルギー効率に最適化されていないため、実用上は設計されていないことが多い。
このギャップを埋めるため,BIPPO (Budget-Aware Independent Proximal Policy Optimization) を提案する。
予算制約の高い2つの画像分類タスクに対してBIPPOを評価し,非IIDデータでFLクライアントをトレーニングした。
BIPPOの改良により、非RL機構、従来のPPO、IPPOと比較して平均精度が向上する。
加えて、BIPPOは予算の無視可能な割合しか消費しない。
全体として、BIPPOはIoT-FLのクライアント選択に対して、パフォーマンスが高く、安定的で、スケーラブルで、持続可能なソリューションを提供します。
関連論文リスト
- Perception-Aware Policy Optimization for Multimodal Reasoning [79.56070395437898]
現在のマルチモーダル推論における誤りの主な原因は、視覚入力の知覚にある。
提案するPAPOは,モデルが推論を学習しながら知覚を学習することを奨励する,新しいポリシー勾配アルゴリズムである。
知覚誤りの30.5%が有意に減少し,PAPOによる知覚能力の向上が示唆された。
論文 参考訳(メタデータ) (2025-07-08T23:22:34Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Learn More by Using Less: Distributed Learning with Energy-Constrained Devices [4.036740581753959]
Federated Learning(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスに登場した。
本稿では,電池に制約のあるデバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
論文 参考訳(メタデータ) (2024-12-03T09:06:57Z) - Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - A Green Multi-Attribute Client Selection for Over-The-Air Federated Learning: A Grey-Wolf-Optimizer Approach [5.277822313069301]
OTA(Over-the-air)FLは、デバイス間直接接続や集中型サーバを使わずにモデルアップデートを広めることによって、これらの課題に対処するために導入された。
OTA-FLは、エネルギー消費の増大とネットワーク遅延の制限を引き起こした。
本稿では,グレイオオカミ(GWO)を用いた多属性クライアント選択フレームワークを提案し,各ラウンドの参加者数を戦略的に制御する。
論文 参考訳(メタデータ) (2024-09-16T20:03:57Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning [2.3262774900834606]
無線ネットワーク上のフェデレートラーニングは、プライバシ保存モデルトレーニングのために、ネットワークエッジにおけるユビキタスインテリジェンスを活用することによって、データ意識のサービスを可能にする。
我々は、類似した好みのユーザデバイスをグループ化するクラスタ化フェデレーション学習を提案し、各クラスタにパーソナライズされたモデルを提供する。
モデル精度、通信資源割り当て、エネルギー消費を共同で考慮し、精度-コストトレードオフ最適化問題を定式化する。
論文 参考訳(メタデータ) (2022-02-06T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。