論文の概要: Distributed Machine Learning in D2D-Enabled Heterogeneous Networks:
Architectures, Performance, and Open Challenges
- arxiv url: http://arxiv.org/abs/2206.01906v2
- Date: Sat, 4 Nov 2023 11:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 01:54:40.967868
- Title: Distributed Machine Learning in D2D-Enabled Heterogeneous Networks:
Architectures, Performance, and Open Challenges
- Title(参考訳): d2d対応ヘテロジニアスネットワークにおける分散機械学習:アーキテクチャ、パフォーマンス、オープンチャレンジ
- Authors: Zhipeng Cheng, Xuwei Fan, Minghui Liwang, Ning Chen, Xiaoyu Xia,
Xianbin Wang
- Abstract要約: 本稿では、2つの革新的なハイブリッド分散機械学習アーキテクチャ、すなわちハイブリッドスプリットFL(HSFL)とハイブリッドフェデレーションSL(HFSL)を紹介する。
HSFLとHFSLは、D2D対応ヘテロジニアス無線ネットワークにおけるFLとSLの長所を組み合わせたものである。
シミュレーションの結果,従来のFLやSLと比較して通信・計算コストや訓練遅延が顕著に減少した。
- 参考スコア(独自算出の注目度): 12.62400578837111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ever-growing concerns regarding data privacy have led to a paradigm shift
in machine learning (ML) architectures from centralized to distributed
approaches, giving rise to federated learning (FL) and split learning (SL) as
the two predominant privacy-preserving ML mechanisms. However,implementing FL
or SL in device-to-device (D2D)-enabled heterogeneous networks with diverse
clients presents substantial challenges, including architecture scalability and
prolonged training delays. To address these challenges, this article introduces
two innovative hybrid distributed ML architectures, namely, hybrid split FL
(HSFL) and hybrid federated SL (HFSL). Such architectures combine the strengths
of both FL and SL in D2D-enabled heterogeneous wireless networks. We provide a
comprehensive analysis of the performance and advantages of HSFL and HFSL,
while also highlighting open challenges for future exploration. We support our
proposals with preliminary simulations using three datasets in non-independent
and non-identically distributed settings, demonstrating the feasibility of our
architectures. Our simulations reveal notable reductions in
communication/computation costs and training delays as compared to conventional
FL and SL.
- Abstract(参考訳): データプライバシに関する懸念は、マシンラーニング(ML)アーキテクチャを集中型から分散型に移行させ、プライバシを保存する2つの主要なメカニズムとして、フェデレーション付き学習(FL)とスプリットラーニング(SL)を生み出した。
しかしながら、デバイス間(d2d)対応のヘテロジニアスネットワークにおけるflやslの実装は、アーキテクチャのスケーラビリティやトレーニングの遅延の長期化など、大きな課題となっている。
これらの課題に対処するため、本稿では、ハイブリッドスプリットFL(HSFL)とハイブリッドフェデレーションSL(HFSL)という、2つの革新的なハイブリッド分散MLアーキテクチャを紹介する。
このようなアーキテクチャは、D2D対応ヘテロジニアス無線ネットワークにおけるFLとSLの長所を組み合わせたものである。
HSFLとHFSLの性能と利点を包括的に分析するとともに,今後の探索に向けたオープンな課題も強調する。
我々は,非独立および非独立に分散した3つのデータセットを用いて予備シミュレーションを行い,アーキテクチャの実現可能性を示す。
シミュレーションの結果,従来のflおよびslと比較して通信/計算コストとトレーニング遅延が著しく低減した。
関連論文リスト
- FedConv: Enhancing Convolutional Neural Networks for Handling Data
Heterogeneity in Federated Learning [34.37155882617201]
フェデレーション・ラーニング(FL)は機械学習における新たなパラダイムであり、共有モデルは複数のデバイスからのデータを使って協調的に学習される。
活性化関数や正規化層などの異なるアーキテクチャ要素が異種FLの性能に与える影響を系統的に検討する。
以上の結果から,戦略的アーキテクチャ変更により,純粋なCNNは,VTと一致するか,あるいは超えるようなロバスト性を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-06T17:57:50Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Synergies Between Federated Learning and O-RAN: Towards an Elastic
Virtualized Architecture for Multiple Distributed Machine Learning Services [7.477830365234231]
我々は、動的マルチサービスFL(DMS-FL)と呼ばれる、NextGネットワーク上の汎用FLパラダイムを導入する。
弾性FL(EV-FL)と呼ばれる新しい分散MLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:21:42Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks [49.19502459827366]
フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
FLの従来の実装は、ネットワーク間協力の可能性を大きく無視してきた。
我々は,デバイス・ツー・デバイス(D2D)とデバイス・ツー・サーバ(D2S)インタラクションに基づいて構築された協調的エッジ/フォグMLパラダイムである協調的連合学習(CFL)を提唱する。
論文 参考訳(メタデータ) (2023-03-15T04:41:36Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Federated Learning for Physical Layer Design [38.46522285374866]
Federated Learning (FL) は最近,分散学習スキームとして提案されている。
FLは集中型学習(CL)よりもコミュニケーション効率が高くプライバシーを保ちます。
本稿では,物理層設計問題に対するFLベーストレーニングの最近の進歩について論じる。
論文 参考訳(メタデータ) (2021-02-23T16:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。