論文の概要: On Federated Learning with Energy Harvesting Clients
- arxiv url: http://arxiv.org/abs/2202.06105v1
- Date: Sat, 12 Feb 2022 17:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:40:06.558721
- Title: On Federated Learning with Energy Harvesting Clients
- Title(参考訳): エネルギー収穫顧客によるフェデレーション学習について
- Authors: Cong Shen, Jing Yang, Jie Xu
- Abstract要約: 本稿では,エネルギ収穫連合学習(EHFL)を提案する。
理論的フレームワークの導入は、クライアントが任意のFLラウンドに参加できるかどうかを保証できないことを意味する。
その結果、FLプロセス全体を通して最小限のクライアント数を最大化する一様クライアントスケジューリングが望ましいことが示唆された。
- 参考スコア(独自算出の注目度): 23.133518718643643
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Catering to the proliferation of Internet of Things devices and distributed
machine learning at the edge, we propose an energy harvesting federated
learning (EHFL) framework in this paper. The introduction of EH implies that a
client's availability to participate in any FL round cannot be guaranteed,
which complicates the theoretical analysis. We derive novel convergence bounds
that capture the impact of time-varying device availabilities due to the random
EH characteristics of the participating clients, for both parallel and local
stochastic gradient descent (SGD) with non-convex loss functions. The results
suggest that having a uniform client scheduling that maximizes the minimum
number of clients throughout the FL process is desirable, which is further
corroborated by the numerical experiments using a real-world FL task and a
state-of-the-art EH scheduler.
- Abstract(参考訳): 本稿では,モノのインターネットの普及とエッジにおける分散機械学習を例として,エネルギー収穫型連合学習(EHFL)フレームワークを提案する。
EHの導入は、クライアントのFLラウンドへの参加が保証できないことを意味しており、理論的解析を複雑にしている。
我々は,非凸損失関数を持つ並列および局所確率勾配降下(SGD)に対して,参加クライアントのランダムなEH特性による時間変化デバイスアベイラビリティの影響を捉える新しい収束境界を導出した。
その結果、FLプロセス全体を通して最小クライアント数を最大化する一様クライアントスケジューリングが望ましいことが示唆され、現実のFLタスクと最先端のEHスケジューラを用いた数値実験によりさらに裏付けられる。
関連論文リスト
- On the Role of Server Momentum in Federated Learning [85.54616432098706]
a)フェデレートラーニング(FL)において未探索な大量のモーメントスキームを網羅するサーバモーメントの一般的な枠組みを提案する。
提案するフレームワークに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2023-12-19T23:56:49Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Asynchronous Online Federated Learning with Reduced Communication
Requirements [6.282767337715445]
通信効率のよい非同期オンライン連合学習(PAO-Fed)戦略を提案する。
参加者のコミュニケーションオーバーヘッドを減らすことで,学習課題への参加をよりアクセスしやすく,効率的に行うことができる。
提案手法の総合シミュレーションを行い,提案手法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-27T14:06:05Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - A Unified Analysis of Federated Learning with Arbitrary Client
Participation [33.86606068136201]
Federated Learning(FL)は、断続的なクライアント可用性と計算/通信効率の課題に直面します。
部分的なクライアントの参加が収束にどのように影響するかを理解することが重要です。
我々は、任意のクライアント参加を伴うFLの統一収束解析を提供する。
論文 参考訳(メタデータ) (2022-05-26T21:56:31Z) - Combating Client Dropout in Federated Learning via Friend Model
Substitution [8.325089307976654]
Federated Learning(FL)は、データプライバシと通信効率のメリットで知られる、新たな分散機械学習フレームワークである。
本稿では,受動的部分的クライアント参加シナリオについて検討する。
我々は,データ配信に類似したクライアントの友人を検出する新しいアルゴリズムFL-FDMSを開発した。
MNISTとCIFAR-10の実験により、FL-FDMSのFLにおけるクライアントドロップアウト処理における優れた性能が確認された。
論文 参考訳(メタデータ) (2022-05-26T08:34:28Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - AutoFL: Enabling Heterogeneity-Aware Energy Efficient Federated Learning [7.802192899666384]
フェデレーション学習は、エッジに分散化されたモバイルデバイスのクラスタを配置して、共有機械学習モデルを協調的にトレーニングすることを可能にする。
この分散トレーニングアプローチは、プライバシー漏洩のリスクを軽減するための実用的なソリューションとして実証されている。
本稿では,最先端FL症例の時間対収束性とエネルギー効率を協調的に最適化する。
論文 参考訳(メタデータ) (2021-07-16T23:41:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。