論文の概要: Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks
- arxiv url: http://arxiv.org/abs/2303.08361v1
- Date: Wed, 15 Mar 2023 04:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 18:26:26.755667
- Title: Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks
- Title(参考訳): 異種エッジ/fogネットワークを用いた協調学習に向けて
- Authors: Su Wang, Seyyedali Hosseinalipour, Vaneet Aggarwal, Christopher G.
Brinton, David J. Love, Weifeng Su, and Mung Chiang
- Abstract要約: フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
FLの従来の実装は、ネットワーク間協力の可能性を大きく無視してきた。
我々は,デバイス・ツー・デバイス(D2D)とデバイス・ツー・サーバ(D2S)インタラクションに基づいて構築された協調的エッジ/フォグMLパラダイムである協調的連合学習(CFL)を提唱する。
- 参考スコア(独自算出の注目度): 49.19502459827366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been promoted as a popular technique for training
machine learning (ML) models over edge/fog networks. Traditional
implementations of FL have largely neglected the potential for inter-network
cooperation, treating edge/fog devices and other infrastructure participating
in ML as separate processing elements. Consequently, FL has been vulnerable to
several dimensions of network heterogeneity, such as varying computation
capabilities, communication resources, data qualities, and privacy demands. We
advocate for cooperative federated learning (CFL), a cooperative edge/fog ML
paradigm built on device-to-device (D2D) and device-to-server (D2S)
interactions. Through D2D and D2S cooperation, CFL counteracts network
heterogeneity in edge/fog networks through enabling a model/data/resource
pooling mechanism, which will yield substantial improvements in ML model
training quality and network resource consumption. We propose a set of core
methodologies that form the foundation of D2D and D2S cooperation and present
preliminary experiments that demonstrate their benefits. We also discuss new FL
functionalities enabled by this cooperative framework such as the integration
of unlabeled data and heterogeneous device privacy into ML model training.
Finally, we describe some open research directions at the intersection of
cooperative edge/fog and FL.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
従来のflの実装はネットワーク間協調の可能性をほとんど無視しており、エッジ/fogデバイスやその他のmlに関わるインフラストラクチャを別個の処理要素として扱う。
その結果、flは様々な計算能力、通信リソース、データ品質、プライバシー要求など、ネットワークの不均一性のいくつかの次元に対して脆弱である。
我々は,デバイス間相互作用(d2d)とデバイス間相互作用(d2s)に基づく協調エッジ/fog mlパラダイムである協調連合学習(cfl)を提唱する。
D2DとD2Sの協力を通じて、CFLはモデル/データ/リソースプーリング機構を有効にすることでエッジ/フォグネットワークのネットワーク不均一性を対策し、MLモデルのトレーニング品質とネットワークリソース消費を大幅に改善する。
本稿では,D2DとD2Sの連携の基礎となるコア方法論と,その利点を示す予備実験を提案する。
また,非ラベルデータと異種デバイスプライバシの統合をmlモデルトレーニングに統合するなど,この協調フレームワークによって実現される新しいfl機能についても論じる。
最後に,協調エッジ/fogとflの交点におけるオープン研究の方向性について述べる。
関連論文リスト
- Device Sampling and Resource Optimization for Federated Learning in Cooperative Edge Networks [17.637761046608]
フェデレーテッド・ラーニング(FedL)は、サーバによって定期的に集約されたローカルモデルをトレーニングすることで、機械学習(ML)をワーカーデバイスに分散させる。
FedLは、同時代の無線ネットワークの2つの重要な特徴を無視している: (i) ネットワークには異種通信/計算資源が含まれており、 (ii) デバイスのローカルデータ分布にかなりの重複がある可能性がある。
デバイス間オフロード(D2D)によって補完されるインテリジェントデバイスサンプリングにより,これらの要因を共同で考慮する新しい最適化手法を開発した。
論文 参考訳(メタデータ) (2023-11-07T21:17:59Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Distributed Machine Learning in D2D-Enabled Heterogeneous Networks:
Architectures, Performance, and Open Challenges [12.62400578837111]
本稿では、2つの革新的なハイブリッド分散機械学習アーキテクチャ、すなわちハイブリッドスプリットFL(HSFL)とハイブリッドフェデレーションSL(HFSL)を紹介する。
HSFLとHFSLは、D2D対応ヘテロジニアス無線ネットワークにおけるFLとSLの長所を組み合わせたものである。
シミュレーションの結果,従来のFLやSLと比較して通信・計算コストや訓練遅延が顕著に減少した。
論文 参考訳(メタデータ) (2022-06-04T04:20:51Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z) - From Federated to Fog Learning: Distributed Machine Learning over
Heterogeneous Wireless Networks [71.23327876898816]
フェデレートラーニング(Federated Learning)は、データを収集するノード間で処理能力を活用することによって、ネットワークエッジでMLモデルをトレーニングするテクニックとして登場した。
我々は、エッジデバイスからクラウドサーバへのノード連続体にMLモデルのトレーニングをインテリジェントに分散する、フォグラーニングと呼ばれる新しい学習パラダイムを提唱する。
論文 参考訳(メタデータ) (2020-06-07T05:11:18Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。