論文の概要: Topology Learning for Heterogeneous Decentralized Federated Learning
over Unreliable D2D Networks
- arxiv url: http://arxiv.org/abs/2312.13611v2
- Date: Mon, 11 Mar 2024 02:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:49:30.827293
- Title: Topology Learning for Heterogeneous Decentralized Federated Learning
over Unreliable D2D Networks
- Title(参考訳): 不信頼なd2dネットワーク上の不均質分散フェデレーション学習のためのトポロジー学習
- Authors: Zheshun Wu, Zenglin Xu, Dun Zeng, Junfan Li, Jie Liu
- Abstract要約: 分散統合学習(DFL)は、無線デバイス間通信(D2D)ネットワークにおいて大きな関心を集めている。
我々はDFLの理論収束解析を行い、収束境界を導出する。
本研究では,DFLにおける表現不一致と信頼できないリンクを考慮した新しいトポロジー学習手法ToLRDULを開発した。
- 参考スコア(独自算出の注目度): 25.672506041978615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the proliferation of intelligent mobile devices in wireless
device-to-device (D2D) networks, decentralized federated learning (DFL) has
attracted significant interest. Compared to centralized federated learning
(CFL), DFL mitigates the risk of central server failures due to communication
bottlenecks. However, DFL faces several challenges, such as the severe
heterogeneity of data distributions in diverse environments, and the
transmission outages and package errors caused by the adoption of the User
Datagram Protocol (UDP) in D2D networks. These challenges often degrade the
convergence of training DFL models. To address these challenges, we conduct a
thorough theoretical convergence analysis for DFL and derive a convergence
bound. By defining a novel quantity named unreliable links-aware neighborhood
discrepancy in this convergence bound, we formulate a tractable optimization
objective, and develop a novel Topology Learning method considering the
Representation Discrepancy and Unreliable Links in DFL, named ToLRDUL.
Intensive experiments under both feature skew and label skew settings have
validated the effectiveness of our proposed method, demonstrating improved
convergence speed and test accuracy, consistent with our theoretical findings.
- Abstract(参考訳): 無線デバイス対デバイス(d2d)ネットワークにおけるインテリジェントモバイルデバイスの普及に伴い、分散型連合学習(dfl)が注目されている。
集中型連合学習(CFL)と比較して、DFLは通信ボトルネックによる中央サーバ障害のリスクを軽減する。
しかし、DFLは様々な環境におけるデータ分散の不均一性や、D2Dネットワークにおけるユーザデータグラムプロトコル(UDP)の採用による送信停止やパッケージエラーなど、いくつかの課題に直面している。
これらの課題はしばしば訓練用DFLモデルの収束を低下させる。
これらの課題に対処するため、我々はDFLの完全な理論的収束解析を行い、収束境界を導出する。
本研究では,この収束境界における信頼できないリンク認識近傍の不一致という新しい量を定義することによって,トラクタブルな最適化目標を定式化し,DFLにおける表現不一致と信頼できないリンクを考慮した新しいトポロジー学習手法,ToLRDULを開発した。
特徴スキューとラベルスキュー設定の両方による集中的な実験により,提案手法の有効性が検証され,理論的な結果と一致した収束速度と試験精度が向上した。
関連論文リスト
- R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Robust Decentralized Learning with Local Updates and Gradient Tracking [16.46727164965154]
分散学習をクライアントやノードのネットワークとみなす。
本稿では,局所的な更新と勾配追跡という2つの重要なデータを利用する分散化ミニマックス最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T03:03:34Z) - Smart Information Exchange for Unsupervised Federated Learning via
Reinforcement Learning [11.819765040106185]
本稿では,Reinforcement Learning を用いたデータ転送のための最適グラフ作成手法を提案する。
目標は、環境の制約を考慮して最も利益をもたらすリンクを作ることです。
数値解析により,提案手法の収束速度とトラグラーレジリエンスの利点が示された。
論文 参考訳(メタデータ) (2024-02-15T00:14:41Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Spatio-Temporal Federated Learning for Massive Wireless Edge Networks [23.389249751372393]
エッジサーバと多数のモバイルデバイス(クライアント)は、モバイルデバイスが収集した膨大なデータをエッジサーバに転送することなく、グローバルモデルを共同で学習する。
提案手法は,STFLに参加する予定の様々なモバイルデバイスからの学習更新の空間的および時間的相関を利用している。
収束性能を用いてSTFLの学習能力を研究するために,STFLの分析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T16:46:45Z) - Efficient Ring-topology Decentralized Federated Learning with Deep
Generative Models for Industrial Artificial Intelligent [13.982904025739606]
深層生成モデル(dgms)のためのリングトポジ型分散連体学習方式を提案する。
我々のRDFLスキームは通信効率を向上し、目標IIoTタスクにおけるDGMを向上するための訓練性能を維持する。
さらに、通信効率とFLセキュリティをさらに向上するため、IPFS(InterPlanetary File System)を導入している。
論文 参考訳(メタデータ) (2021-04-15T08:09:54Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。