論文の概要: Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks
- arxiv url: http://arxiv.org/abs/2303.08361v1
- Date: Wed, 15 Mar 2023 04:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 18:26:26.755667
- Title: Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks
- Title(参考訳): 異種エッジ/fogネットワークを用いた協調学習に向けて
- Authors: Su Wang, Seyyedali Hosseinalipour, Vaneet Aggarwal, Christopher G.
Brinton, David J. Love, Weifeng Su, and Mung Chiang
- Abstract要約: フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
FLの従来の実装は、ネットワーク間協力の可能性を大きく無視してきた。
我々は,デバイス・ツー・デバイス(D2D)とデバイス・ツー・サーバ(D2S)インタラクションに基づいて構築された協調的エッジ/フォグMLパラダイムである協調的連合学習(CFL)を提唱する。
- 参考スコア(独自算出の注目度): 49.19502459827366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been promoted as a popular technique for training
machine learning (ML) models over edge/fog networks. Traditional
implementations of FL have largely neglected the potential for inter-network
cooperation, treating edge/fog devices and other infrastructure participating
in ML as separate processing elements. Consequently, FL has been vulnerable to
several dimensions of network heterogeneity, such as varying computation
capabilities, communication resources, data qualities, and privacy demands. We
advocate for cooperative federated learning (CFL), a cooperative edge/fog ML
paradigm built on device-to-device (D2D) and device-to-server (D2S)
interactions. Through D2D and D2S cooperation, CFL counteracts network
heterogeneity in edge/fog networks through enabling a model/data/resource
pooling mechanism, which will yield substantial improvements in ML model
training quality and network resource consumption. We propose a set of core
methodologies that form the foundation of D2D and D2S cooperation and present
preliminary experiments that demonstrate their benefits. We also discuss new FL
functionalities enabled by this cooperative framework such as the integration
of unlabeled data and heterogeneous device privacy into ML model training.
Finally, we describe some open research directions at the intersection of
cooperative edge/fog and FL.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
従来のflの実装はネットワーク間協調の可能性をほとんど無視しており、エッジ/fogデバイスやその他のmlに関わるインフラストラクチャを別個の処理要素として扱う。
その結果、flは様々な計算能力、通信リソース、データ品質、プライバシー要求など、ネットワークの不均一性のいくつかの次元に対して脆弱である。
我々は,デバイス間相互作用(d2d)とデバイス間相互作用(d2s)に基づく協調エッジ/fog mlパラダイムである協調連合学習(cfl)を提唱する。
D2DとD2Sの協力を通じて、CFLはモデル/データ/リソースプーリング機構を有効にすることでエッジ/フォグネットワークのネットワーク不均一性を対策し、MLモデルのトレーニング品質とネットワークリソース消費を大幅に改善する。
本稿では,D2DとD2Sの連携の基礎となるコア方法論と,その利点を示す予備実験を提案する。
また,非ラベルデータと異種デバイスプライバシの統合をmlモデルトレーニングに統合するなど,この協調フレームワークによって実現される新しいfl機能についても論じる。
最後に,協調エッジ/fogとflの交点におけるオープン研究の方向性について述べる。
関連論文リスト
- Enhanced Decentralized Federated Learning based on Consensus in
Connected Vehicles [14.80476265018825]
分散システムにおける機械学習(ML)モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
我々は,C-DFL (Consensus based Decentralized Federated Learning)を導入し,コネクテッドカーにおけるフェデレーションラーニングに取り組む。
論文 参考訳(メタデータ) (2022-09-22T01:21:23Z) - Hybrid Architectures for Distributed Machine Learning in Heterogeneous
Wireless Networks [22.122522337625654]
本稿では,ハイブリッド分散機械学習(ML)アーキテクチャ,すなわちハイブリッドスプリットFL(HSFL)とハイブリッドフェデレーションSL(HFSL)の2つの新しいアーキテクチャを提案する。
HSFL と HFSL は従来の FL と SL と比較して通信/計算コストと訓練時間を大幅に削減できる。
論文 参考訳(メタデータ) (2022-06-04T04:20:51Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - From Federated to Fog Learning: Distributed Machine Learning over
Heterogeneous Wireless Networks [71.23327876898816]
フェデレートラーニング(Federated Learning)は、データを収集するノード間で処理能力を活用することによって、ネットワークエッジでMLモデルをトレーニングするテクニックとして登場した。
我々は、エッジデバイスからクラウドサーバへのノード連続体にMLモデルのトレーニングをインテリジェントに分散する、フォグラーニングと呼ばれる新しい学習パラダイムを提唱する。
論文 参考訳(メタデータ) (2020-06-07T05:11:18Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。