論文の概要: Topology-aware Federated Learning in Edge Computing: A Comprehensive
Survey
- arxiv url: http://arxiv.org/abs/2302.02573v1
- Date: Mon, 6 Feb 2023 05:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:32:12.668649
- Title: Topology-aware Federated Learning in Edge Computing: A Comprehensive
Survey
- Title(参考訳): エッジコンピューティングにおけるトポロジアウェアフェデレーション学習:包括的調査
- Authors: Jiajun Wu, Steve Drew, Fan Dong, Zhuangdi Zhu, Jiayu Zhou
- Abstract要約: フェデレートラーニング(FL)は、分散およびプライベートトレーニングデータを使用したエッジコンピューティングにおいて、巨大なユーザ所有デバイスに対する自然なソリューションであることが証明されている。
FedAvgに基づくほとんどのバニラFLアルゴリズムは、単純な星のトポロジーに従っている。
本稿では,ネットワークトポロジの最適化とともに,様々なタイプのエッジネットワークトポロジを紹介する。
- 参考スコア(独自算出の注目度): 32.487103201571664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ultra-low latency requirements of 5G/6G applications and privacy
constraints call for distributed machine learning systems to be deployed at the
edge. With its simple yet effective approach, federated learning (FL) is proved
to be a natural solution for massive user-owned devices in edge computing with
distributed and private training data. Most vanilla FL algorithms based on
FedAvg follow a naive star topology, ignoring the heterogeneity and hierarchy
of the volatile edge computing architectures and topologies in reality. In this
paper, we conduct a comprehensive survey on the existing work of optimized FL
models, frameworks, and algorithms with a focus on their network topologies.
After a brief recap of FL and edge computing networks, we introduce various
types of edge network topologies, along with the optimizations under the
aforementioned network topologies. Lastly, we discuss the remaining challenges
and future works for applying FL in topology-specific edge networks.
- Abstract(参考訳): 5g/6gアプリケーションの超低レイテンシ要件とプライバシの制約は、エッジにデプロイされる分散機械学習システムを要求する。
シンプルで効果的なアプローチで、フェデレートドラーニング(FL)は、分散トレーニングデータとプライベートトレーニングデータを使ったエッジコンピューティングにおける、巨大なユーザ所有デバイスに対する自然なソリューションであることが証明されている。
FedAvgに基づくほとんどのバニラFLアルゴリズムは、不安定なエッジコンピューティングアーキテクチャとトポロジの不均一性と階層を無視して、単純な星トポロジに従う。
本稿では,ネットワークトポロジに焦点をあてた最適化flモデル,フレームワーク,アルゴリズムの既存作業に関する包括的調査を行う。
flおよびエッジコンピューティングネットワークの簡単な再定義の後、先述のネットワークトポロジの下での最適化とともに、様々な種類のエッジネットワークトポロジを紹介する。
最後に,トポロジ固有エッジネットワークにおけるflの適用に関する課題と今後の課題について述べる。
関連論文リスト
- Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - From Federated to Fog Learning: Distributed Machine Learning over
Heterogeneous Wireless Networks [71.23327876898816]
フェデレートラーニング(Federated Learning)は、データを収集するノード間で処理能力を活用することによって、ネットワークエッジでMLモデルをトレーニングするテクニックとして登場した。
我々は、エッジデバイスからクラウドサーバへのノード連続体にMLモデルのトレーニングをインテリジェントに分散する、フォグラーニングと呼ばれる新しい学習パラダイムを提唱する。
論文 参考訳(メタデータ) (2020-06-07T05:11:18Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks [2.398608007786179]
ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
論文 参考訳(メタデータ) (2020-02-19T18:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。