論文の概要: Coordination-free Decentralised Federated Learning on Complex Networks:
Overcoming Heterogeneity
- arxiv url: http://arxiv.org/abs/2312.04504v1
- Date: Thu, 7 Dec 2023 18:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 13:44:40.170328
- Title: Coordination-free Decentralised Federated Learning on Complex Networks:
Overcoming Heterogeneity
- Title(参考訳): 複雑ネットワーク上のコーディネーションフリー分散連合学習:不均一性克服
- Authors: Lorenzo Valerio, Chiara Boldrini, Andrea Passarella, J\'anos
Kert\'esz, M\'arton Karsai, Gerardo I\~niguez
- Abstract要約: Federated Learning(FL)は、エッジコンピューティングシナリオで学習タスクを実行するためのフレームワークである。
本稿では,コミュニケーション効率のよい分散フェデレート学習(DFL)アルゴリズムを提案する。
我々のソリューションは、デバイスが直接隣人とのみ通信し、正確なモデルを訓練することを可能にする。
- 参考スコア(独自算出の注目度): 2.6849848612544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a well-known framework for successfully performing
a learning task in an edge computing scenario where the devices involved have
limited resources and incomplete data representation. The basic assumption of
FL is that the devices communicate directly or indirectly with a parameter
server that centrally coordinates the whole process, overcoming several
challenges associated with it. However, in highly pervasive edge scenarios, the
presence of a central controller that oversees the process cannot always be
guaranteed, and the interactions (i.e., the connectivity graph) between devices
might not be predetermined, resulting in a complex network structure. Moreover,
the heterogeneity of data and devices further complicates the learning process.
This poses new challenges from a learning standpoint that we address by
proposing a communication-efficient Decentralised Federated Learning (DFL)
algorithm able to cope with them. Our solution allows devices communicating
only with their direct neighbours to train an accurate model, overcoming the
heterogeneity induced by data and different training histories. Our results
show that the resulting local models generalise better than those trained with
competing approaches, and do so in a more communication-efficient way.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジコンピューティングシナリオにおいて、関係するデバイスが限られたリソースと不完全なデータ表現を持つ学習タスクを成功させるための、よく知られたフレームワークである。
FLの基本前提は、デバイスが直接または間接的に、プロセス全体を集中的に調整するパラメータサーバと通信し、それに関連するいくつかの課題を克服することである。
しかし、高度に普及したエッジシナリオでは、プロセスを監視する中央コントローラの存在は必ずしも保証されず、デバイス間の相互作用(すなわち接続グラフ)は所定のものではなくなり、複雑なネットワーク構造となる。
さらに、データとデバイスの不均一性は学習プロセスをさらに複雑にする。
これは、通信効率のよい分散連合学習(dfl)アルゴリズムを提案して対処する学習の観点から、新たな課題を提起する。
我々のソリューションは、データと異なるトレーニング履歴によって引き起こされる不均一性を克服し、直接隣人とのみ通信して正確なモデルを訓練することができる。
その結果,提案手法は,競合するアプローチで訓練したモデルよりも一般化し,通信効率が向上した。
関連論文リスト
- Gradient-Congruity Guided Federated Sparse Training [31.793271982853188]
Federated Learning(FL)は、データプライバシを保持しながら、このプロセスを容易にする分散機械学習技術である。
FLはまた、リソース制約のあるデバイスに関する高い計算コストや通信コストといった課題に直面している。
本研究では,動的スパーストレーニングと勾配一致検査を統合したFedSGC(Gradient-Congruity Guided Federated Sparse Training)を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:29:48Z) - Federated Learning for Computationally-Constrained Heterogeneous
Devices: A Survey [3.219812767529503]
フェデレートラーニング(FL)は、通信オーバーヘッドとモデルの正確性の間のトレードオフをプライバシ保護する。
現実のアプリケーションに広く適用するためにFLが克服しなければならない課題について概説する。
論文 参考訳(メタデータ) (2023-07-18T12:05:36Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z) - Federated Learning in Unreliable and Resource-Constrained Cellular
Wireless Networks [35.80470886180477]
本稿では,セルラー無線ネットワークに適した連合学習アルゴリズムを提案する。
収束を証明し、収束率を最大化する最適なスケジューリングポリシーを提供します。
論文 参考訳(メタデータ) (2020-12-09T16:16:43Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。