論文の概要: Hierarchical Federated Learning through LAN-WAN Orchestration
- arxiv url: http://arxiv.org/abs/2010.11612v1
- Date: Thu, 22 Oct 2020 11:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:00:21.055435
- Title: Hierarchical Federated Learning through LAN-WAN Orchestration
- Title(参考訳): LAN-WANオーケストレーションによる階層的フェデレーション学習
- Authors: Jinliang Yuan, Mengwei Xu, Xiao Ma, Ao Zhou, Xuanzhe Liu, Shangguang
Wang
- Abstract要約: ローカルエリアネットワーク(LAN)における階層的な集約機構を含む効率的なフェデレートラーニングプロトコルを提案する。
提案するFLは,WANを横断するクラウド上で,同じLANで頻繁に局所的な集約を行うことで,学習プロセスを加速し,金銭的コストを削減することができる。
我々は、LanFLがFLトレーニング(1.5x-6.0x)を著しく加速し、WANトラフィック(18.3x-75.6x)を節約し、モデル精度を維持しながら金銭的コスト(3.8x-27.2x)を低減できることを明らかにする。
- 参考スコア(独自算出の注目度): 10.898256461649249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) was designed to enable mobile phones to
collaboratively learn a global model without uploading their private data to a
cloud server. However, exiting FL protocols has a critical communication
bottleneck in a federated network coupled with privacy concerns, usually
powered by a wide-area network (WAN). Such a WAN-driven FL design leads to
significantly high cost and much slower model convergence. In this work, we
propose an efficient FL protocol, which involves a hierarchical aggregation
mechanism in the local-area network (LAN) due to its abundant bandwidth and
almost negligible monetary cost than WAN. Our proposed FL can accelerate the
learning process and reduce the monetary cost with frequent local aggregation
in the same LAN and infrequent global aggregation on a cloud across WAN. We
further design a concrete FL platform, namely LanFL, that incorporates several
key techniques to handle those challenges introduced by LAN: cloud-device
aggregation architecture, intra-LAN peer-to-peer (p2p) topology generation,
inter-LAN bandwidth capacity heterogeneity. We evaluate LanFL on 2 typical
Non-IID datasets, which reveals that LanFL can significantly accelerate FL
training (1.5x-6.0x), save WAN traffic (18.3x-75.6x), and reduce monetary cost
(3.8x-27.2x) while preserving the model accuracy.
- Abstract(参考訳): federated learning(fl)は、プライベートデータをクラウドサーバにアップロードすることなく、携帯電話がグローバルなモデルを共同学習できるようにするように設計されている。
しかしながら、FLプロトコルの離脱は、一般にワイドエリアネットワーク(WAN)によって駆動される、プライバシー上の懸念と結合したフェデレートネットワークにおける重要な通信ボトルネックを持つ。
このようなwan駆動のfl設計は、かなり高いコストとずっと遅いモデル収束をもたらす。
本研究では,wan よりも帯域幅が豊富で費用がほとんど無視できるため,lan (local-area network) の階層的集約機構を含む効率的な fl プロトコルを提案する。
提案するFLは,WANを横断するクラウド上で,同じLANで頻繁に局所的な集約を行うことで,学習プロセスを加速し,金銭的コストを削減することができる。
さらに,クラウドデバイスアグリゲーションアーキテクチャ,LAN内ピアツーピア(p2p)トポロジ生成,LAN間帯域容量の不均一性といった,LANがもたらした課題に対処するための重要なテクニックを取り入れた具体的なFLプラットフォームであるLanFLを設計する。
我々は、LanFLがFLトレーニング(1.5x-6.0x)を著しく加速し、WANトラフィック(18.3x-75.6x)を節約し、モデル精度を維持しながら金銭的コスト(3.8x-27.2x)を低減できることを明らかにする。
関連論文リスト
- Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLCC: Efficient Distributed Federated Learning on IoMT over CSMA/CA [0.0]
フェデレートラーニング(FL)は、プライバシー保護のための有望なアプローチとして登場した。
本稿では,アドホックネットワーク上で遠隔医療システムを改善するアプリケーションにおけるFLの性能について検討する。
ネットワーク性能を評価するための指標として,1) 干渉を最小限に抑えながら伝送を成功させる確率,2) 精度と損失の点で分散FLモデルの性能を示す。
論文 参考訳(メタデータ) (2023-03-29T16:36:42Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - EdgeML: Towards Network-Accelerated Federated Learning over Wireless
Edge [11.49608766562657]
Federated Learning(FL)は、次世代AIシステムのための分散機械学習技術である。
本稿では,マルチホップフェデレーションネットワークの性能を最適化することにより,無線エッジ上のFL収束を加速することを目的とする。
論文 参考訳(メタデータ) (2021-10-14T14:06:57Z) - Convergence Time Optimization for Federated Learning over Wireless
Networks [160.82696473996566]
無線ユーザが(ローカル収集データを用いて訓練した)ローカルFLモデルを基地局(BS)に送信する無線ネットワークを考える。
中央コントローラとして機能するBSは、受信したローカルFLモデルを使用してグローバルFLモデルを生成し、それを全ユーザにブロードキャストする。
無線ネットワークにおけるリソースブロック(RB)の数が限られているため、ローカルFLモデルパラメータをBSに送信するために選択できるのは一部のユーザのみである。
各ユーザが独自のトレーニングデータサンプルを持っているため、BSは、収束したグローバルFLモデルを生成するために、すべてのローカルユーザFLモデルを含むことを好んでいる。
論文 参考訳(メタデータ) (2020-01-22T01:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。