論文の概要: AdaptiveFL: Adaptive Heterogeneous Federated Learning for Resource-Constrained AIoT Systems
- arxiv url: http://arxiv.org/abs/2311.13166v2
- Date: Tue, 9 Apr 2024 05:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 19:57:00.051550
- Title: AdaptiveFL: Adaptive Heterogeneous Federated Learning for Resource-Constrained AIoT Systems
- Title(参考訳): AdaptiveFL:資源制約型AIoTシステムのための適応的不均一フェデレーション学習
- Authors: Chentao Jia, Ming Hu, Zekai Chen, Yanxin Yang, Xiaofei Xie, Yang Liu, Mingsong Chen,
- Abstract要約: Federated Learning (FL)は、AIoT(Artificial Intelligence of Things)デバイス間の協調学習を可能にすることを約束している。
本稿では,新しい幅ワイドモデルプルーニング戦略に基づいて,AdaptiveFLという効果的なFL手法を提案する。
我々は,AdaptiveFLがIIDシナリオと非IIDシナリオの両方に対して最大16.83%の推論改善を達成可能であることを示す。
- 参考スコア(独自算出の注目度): 25.0282475069725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although Federated Learning (FL) is promising to enable collaborative learning among Artificial Intelligence of Things (AIoT) devices, it suffers from the problem of low classification performance due to various heterogeneity factors (e.g., computing capacity, memory size) of devices and uncertain operating environments. To address these issues, this paper introduces an effective FL approach named AdaptiveFL based on a novel fine-grained width-wise model pruning strategy, which can generate various heterogeneous local models for heterogeneous AIoT devices. By using our proposed reinforcement learning-based device selection mechanism, AdaptiveFL can adaptively dispatch suitable heterogeneous models to corresponding AIoT devices on the fly based on their available resources for local training. Experimental results show that, compared to state-of-the-art methods, AdaptiveFL can achieve up to 16.83% inference improvements for both IID and non-IID scenarios.
- Abstract(参考訳): Federated Learning(FL)は、AI of Things(AIoT)デバイス間の協調学習を可能にすることを約束しているが、デバイスのさまざまな不均一性要因(例えば、計算能力、メモリサイズ)と不確実な動作環境によって、分類性能の低い問題に悩まされている。
これらの問題に対処するために,不均一なAIoTデバイスのための様々な異種局所モデルを生成可能な,幅ワイドワイドプルーニング戦略に基づく,AdaptiveFLという効果的なFL手法を提案する。
提案した強化学習に基づくデバイス選択機構を用いることで、AdaptiveFLは、ローカルトレーニングのために利用可能なリソースに基づいて、対応するAIoTデバイスに適応的に適切な異種モデルをアダプティブにディスパッチすることができる。
実験の結果、AdaptiveFLは最先端の手法と比較して、IIDと非IIDの両方のシナリオで最大16.83%の推論改善を達成できることがわかった。
関連論文リスト
- Gen-DFL: Decision-Focused Generative Learning for Robust Decision Making [48.62706690668867]
意思決定型生成学習(Gen-DFL)は、生成モデルを利用して不確実性を適応的にモデル化し、意思決定品質を向上させる新しいフレームワークである。
本論文は,Gen-DFLが従来のDFLと比較して,最悪の性能バウンダリを改善できることを理論的に示す。
論文 参考訳(メタデータ) (2025-02-08T06:52:11Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Learnable Sparse Customization in Heterogeneous Edge Computing [27.201987866208484]
異種フェデレート学習(FedLPS)のための学習可能なパーソナライズ・スパシフィケーションを提案する。
FedLPSは、局所データ表現におけるモデルユニットの重要性を学び、パーソナライズされたデータ特徴を正確に抽出するために、最小限の重要度に基づくスパースパターンを導出する。
実験により、FedLPSは精度とトレーニングコストにおいてステータスクオアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-10T06:14:31Z) - Towards Energy-Aware Federated Learning via MARL: A Dual-Selection Approach for Model and Client [16.67119399590236]
DR-FLという,エネルギーを考慮したフェデレートラーニング(FL)フレームワークを提案する。
DR-FLは、クライアントと異種ディープラーニングモデルの両方のエネルギー制約を考慮し、エネルギー効率のFLを実現する。
Vanilla FL とは異なり,DR-FL は提案した Muti-Agents Reinforcement Learning (MARL) に基づく双対選択方式を採用している。
論文 参考訳(メタデータ) (2024-05-13T21:02:31Z) - Efficient Language Model Architectures for Differentially Private
Federated Learning [21.280600854272716]
クロスデバイス・フェデレーション・ラーニング(Cross-device Federated Learning, FL)は、デバイスを離れることなく、数百万のエッジデバイスに分散したデータ上でモデルをトレーニングするテクニックである。
言語モデルの集中的なトレーニングでは、安定性とパフォーマンスの向上を提供するため、適応が望ましい。
ニューラルリカレントセルにおけるシグモイドとタンハの活性化を修飾することにより、SI CIFG (Coupled Input Forget Gate) 再カレントネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T22:21:48Z) - AdapterFL: Adaptive Heterogeneous Federated Learning for
Resource-constrained Mobile Computing Systems [24.013937378054074]
Federated Learning (FL)は、データ共有なしで大規模分散クライアントの協調学習を可能にする。
モバイルコンピューティングシステムは、協調学習のために小さな低パフォーマンスモデルしか利用できない。
我々は、大規模な異種モバイルデバイスの協調訓練を適応的に行うために、モデル再組み立て戦略を用いる。
論文 参考訳(メタデータ) (2023-11-23T14:42:43Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - AQUILA: Communication Efficient Federated Learning with Adaptive
Quantization in Device Selection Strategy [27.443439653087662]
本稿では,これらの問題に対処するために考案された新しい適応型フレームワークであるAQUILA(Adaptive Quantization in Device selection Strategy)を紹介する。
AQUILAは、デバイス更新の品質と有用性を優先する高度なデバイス選択方法を統合する。
実験の結果,AQUILAは既存の手法に比べて通信コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-08-01T03:41:47Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。