論文の概要: Learn More by Using Less: Distributed Learning with Energy-Constrained Devices
- arxiv url: http://arxiv.org/abs/2412.02289v1
- Date: Tue, 03 Dec 2024 09:06:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:47.188165
- Title: Learn More by Using Less: Distributed Learning with Energy-Constrained Devices
- Title(参考訳): Lessを使ってさらに学ぶ:エネルギー制約デバイスによる分散学習
- Authors: Roberto Pereira, Cristian J. Vaca-Rubio, Luis Blanco,
- Abstract要約: Federated Learning(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスに登場した。
本稿では,電池に制約のあるデバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
- 参考スコア(独自算出の注目度): 3.730504020733928
- License:
- Abstract: Federated Learning (FL) has emerged as a solution for distributed model training across decentralized, privacy-preserving devices, but the different energy capacities of participating devices (system heterogeneity) constrain real-world implementations. These energy limitations not only reduce model accuracy but also increase dropout rates, impacting on convergence in practical FL deployments. In this work, we propose LeanFed, an energy-aware FL framework designed to optimize client selection and training workloads on battery-constrained devices. LeanFed leverages adaptive data usage by dynamically adjusting the fraction of local data each device utilizes during training, thereby maximizing device participation across communication rounds while ensuring they do not run out of battery during the process. We rigorously evaluate LeanFed against traditional FedAvg on CIFAR-10 and CIFAR-100 datasets, simulating various levels of data heterogeneity and device participation rates. Results show that LeanFed consistently enhances model accuracy and stability, particularly in settings with high data heterogeneity and limited battery life, by mitigating client dropout and extending device availability. This approach demonstrates the potential of energy-efficient, privacy-preserving FL in real-world, large-scale applications, setting a foundation for robust and sustainable pervasive AI on resource-constrained networks.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスにまたがるソリューションとして登場したが、参加するデバイス(システム不均一性)の異なるエネルギー容量は、実世界の実装を制約している。
これらのエネルギー制限は、モデルの精度を低下させるだけでなく、ドロップアウト率も増加させ、実際のFL配置の収束に影響を及ぼす。
本研究では,電池制約デバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
LeanFedは、トレーニング中に各デバイスが使用するローカルデータの割合を動的に調整することで、適応データの利用率を活用する。
CIFAR-10およびCIFAR-100データセット上の従来のFedAvgに対して、LeanFedを厳格に評価し、さまざまなレベルのデータの均一性とデバイス参加率をシミュレートした。
結果は、LeanFedがクライアントのドロップアウトを軽減し、デバイス可用性を拡大することで、モデル精度と安定性を一貫して向上することを示している。
このアプローチは、実世界の大規模アプリケーションにおけるエネルギー効率が高く、プライバシ保護のFLの可能性を示し、リソース制約されたネットワーク上で堅牢で持続可能なAIの基礎を確立します。
関連論文リスト
- Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - AnycostFL: Efficient On-Demand Federated Learning over Heterogeneous
Edge Devices [20.52519915112099]
我々はAny CostFLというコスト調整可能なFLフレームワークを提案し、多様なエッジデバイスがローカル更新を効率的に実行できるようにする。
実験結果から,我々の学習フレームワークは,適切なグローバルテスト精度を実現するために,トレーニング遅延とエネルギー消費の最大1.9倍の削減が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-01-08T15:25:55Z) - FedGPO: Heterogeneity-Aware Global Parameter Optimization for Efficient
Federated Learning [11.093360539563657]
フェデレートラーニング(FL)は、機械学習トレーニングにおけるプライバシリークのリスクに対処するソリューションとして登場した。
我々は,モデル収束を保証しつつ,FLのエネルギー効率を最適化するFedGPOを提案する。
我々の実験では、FedGPOはモデル収束時間を2.4倍改善し、ベースライン設定の3.6倍のエネルギー効率を達成する。
論文 参考訳(メタデータ) (2022-11-30T01:22:57Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - EAFL: Towards Energy-Aware Federated Learning on Battery-Powered Edge
Devices [3.448338949969246]
フェデレーテッド・ラーニング(FL)は、エッジデバイスがデータの集中化やプライバシーをデフォルトにすることなく、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする、新たに登場したAIのブランチである。
大規模なデプロイメントでは、クライアントの不均一性は、正確性、公平性、時間といったトレーニング品質に影響を与える規範です。
我々は、エネルギー消費を考慮し、異種ターゲット装置の参加を最大化するエネルギー対応FL選択法EAFLを開発した。
論文 参考訳(メタデータ) (2022-08-09T02:15:45Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - AutoFL: Enabling Heterogeneity-Aware Energy Efficient Federated Learning [7.802192899666384]
フェデレーション学習は、エッジに分散化されたモバイルデバイスのクラスタを配置して、共有機械学習モデルを協調的にトレーニングすることを可能にする。
この分散トレーニングアプローチは、プライバシー漏洩のリスクを軽減するための実用的なソリューションとして実証されている。
本稿では,最先端FL症例の時間対収束性とエネルギー効率を協調的に最適化する。
論文 参考訳(メタデータ) (2021-07-16T23:41:26Z) - Wirelessly Powered Federated Edge Learning: Optimal Tradeoffs Between
Convergence and Power Transfer [42.30741737568212]
無線電力伝送(WPT)を用いた電力機器の解法を提案する。
本研究の目的は、無線で駆動するFEEL(WP-FEEL)システムの導入に関するガイドラインの導出である。
その結果、WPTプロビジョニングに関する有用なガイドラインを提供し、学習パフォーマンスの保証を提供します。
論文 参考訳(メタデータ) (2021-02-24T15:47:34Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。