論文の概要: Decentralized Event-Triggered Federated Learning with Heterogeneous
Communication Thresholds
- arxiv url: http://arxiv.org/abs/2204.03726v1
- Date: Thu, 7 Apr 2022 20:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 13:41:18.574875
- Title: Decentralized Event-Triggered Federated Learning with Heterogeneous
Communication Thresholds
- Title(参考訳): 不均質な通信閾値を持つ分散イベントトリガー型フェデレーション学習
- Authors: Shahryar Zehtabi, Seyyedali Hosseinalipour, Christopher G. Brinton
- Abstract要約: ネットワークグラフトポロジ上での非同期なイベントトリガーによるコンセンサス反復による分散モデルアグリゲーションのための新しい手法を提案する。
本手法は,分散学習とグラフコンセンサス文学における標準的な仮定の下で,グローバルな最適学習モデルを実現することを実証する。
- 参考スコア(独自算出の注目度): 12.513477328344255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent emphasis of distributed learning research has been on federated
learning (FL), in which model training is conducted by the data-collecting
devices. Existing research on FL has mostly focused on a star topology learning
architecture with synchronized (time-triggered) model training rounds, where
the local models of the devices are periodically aggregated by a centralized
coordinating node. However, in many settings, such a coordinating node may not
exist, motivating efforts to fully decentralize FL. In this work, we propose a
novel methodology for distributed model aggregations via asynchronous,
event-triggered consensus iterations over the network graph topology. We
consider heterogeneous communication event thresholds at each device that weigh
the change in local model parameters against the available local resources in
deciding the benefit of aggregations at each iteration. Through theoretical
analysis, we demonstrate that our methodology achieves asymptotic convergence
to the globally optimal learning model under standard assumptions in
distributed learning and graph consensus literature, and without restrictive
connectivity requirements on the underlying topology. Subsequent numerical
results demonstrate that our methodology obtains substantial improvements in
communication requirements compared with FL baselines.
- Abstract(参考訳): 近年の分散学習研究は,データ収集装置によるモデルトレーニングを行うフェデレートラーニング(FL)に重点を置いている。
flに関するこれまでの研究は主に、同期(タイムトリガー)モデルトレーニングラウンドによるスタートポロジ学習アーキテクチャに重点を置いており、デバイスのローカルモデルは、集中的なコーディネートノードによって定期的に集約されている。
しかし、多くの設定において、そのような座標ノードは存在せず、FLを完全に分散化する努力を動機付けている。
本稿では,ネットワークグラフトポロジ上での非同期なイベントトリガー型コンセンサス反復による分散モデルアグリゲーションの新しい手法を提案する。
各デバイスにおける異種通信イベントのしきい値について検討し、各イテレーションにおけるアグリゲーションの利点を決定する際に、利用可能なローカルリソースに対するローカルモデルパラメータの変化を重み付けする。
理論的解析により,分散学習およびグラフコンセンサス文学における標準的な仮定の下で,基礎となるトポロジ上の制限的な接続要件を伴わずに,グローバルな最適学習モデルに漸近的に収束することを示す。
その後の数値計算の結果,FLベースラインと比較して,通信要求の大幅な改善が得られた。
関連論文リスト
- Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Decentralized Sporadic Federated Learning: A Unified Algorithmic Framework with Convergence Guarantees [18.24213566328972]
分散分散学習(DFL)は、(i)モデル更新と(ii)モデルアグリゲーションの両方をクライアントが中央サーバなしで実行するFL設定をキャプチャする。
DSpodFLは、さまざまなシステム設定下でのベースラインと比較して、一貫して速度を達成している。
論文 参考訳(メタデータ) (2024-02-05T19:02:19Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。