論文の概要: pFedWN: A Personalized Federated Learning Framework for D2D Wireless Networks with Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2501.09822v1
- Date: Thu, 16 Jan 2025 20:16:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:58:52.879550
- Title: pFedWN: A Personalized Federated Learning Framework for D2D Wireless Networks with Heterogeneous Data
- Title(参考訳): pFedWN:異種データを用いたD2D無線ネットワークのための個人化フェデレーション学習フレームワーク
- Authors: Zhou Ni, Masoud Ghazikor, Morteza Hashemi,
- Abstract要約: 従来のフェデレートラーニングアプローチは、クライアント間のデータの異質性に悩まされることが多い。
PFLは、非独立で同一の分散(非IID)とクライアント間のアンバランスなデータによって引き起こされる課題に対する解決策として現れます。
デバイス間通信(D2D)の無線チャネル条件をサーバフリーなPFLアプローチに組み込む共同最適化問題を定式化する。
- 参考スコア(独自算出の注目度): 1.9188272016043582
- License:
- Abstract: Traditional Federated Learning (FL) approaches often struggle with data heterogeneity across clients, leading to suboptimal model performance for individual clients. To address this issue, Personalized Federated Learning (PFL) emerges as a solution to the challenges posed by non-independent and identically distributed (non-IID) and unbalanced data across clients. Furthermore, in most existing decentralized machine learning works, a perfect communication channel is considered for model parameter transmission between clients and servers. However, decentralized PFL over wireless links introduces new challenges, such as resource allocation and interference management. To overcome these challenges, we formulate a joint optimization problem that incorporates the underlying device-to-device (D2D) wireless channel conditions into a server-free PFL approach. The proposed method, dubbed pFedWN, optimizes the learning performance for each client while accounting for the variability in D2D wireless channels. To tackle the formulated problem, we divide it into two sub-problems: PFL neighbor selection and PFL weight assignment. The PFL neighbor selection is addressed through channel-aware neighbor selection within unlicensed spectrum bands such as ISM bands. Next, to assign PFL weights, we utilize the Expectation-Maximization (EM) method to evaluate the similarity between clients' data and obtain optimal weight distribution among the chosen PFL neighbors. Empirical results show that pFedWN provides efficient and personalized learning performance with non-IID and unbalanced datasets. Furthermore, it outperforms the existing FL and PFL methods in terms of learning efficacy and robustness, particularly under dynamic and unpredictable wireless channel conditions.
- Abstract(参考訳): 従来のフェデレートラーニング(FL)アプローチは、クライアント間のデータ不均一性に苦しむことが多く、個々のクライアントに対して最適なモデルパフォーマンスをもたらす。
この問題に対処するため、Personalized Federated Learning(PFL)は、非独立的で同一に分散された(非IID)データとクライアント間の不均衡なデータによって引き起こされる課題に対する解決策として登場した。
さらに、既存の分散機械学習の作業の多くでは、クライアントとサーバ間のモデルパラメータ伝達に完璧な通信チャネルが考慮されている。
しかし、無線リンク上の分散PFLは、リソース割り当てや干渉管理といった新しい課題をもたらす。
これらの課題を克服するために、基礎となるデバイス間通信(D2D)無線チャネル条件をサーバフリーのPFLアプローチに組み込む共同最適化問題を定式化する。
提案手法はpFedWNと呼ばれ,D2D無線チャネルの可変性を考慮しつつ,各クライアントの学習性能を最適化する。
定式化問題に対処するため、PFL近傍選択とPFL重み割り当てという2つのサブプロブレムに分割する。
PFL隣りのセレクションは、ISMバンドのような無許可のスペクトル帯域内のチャネル対応の隣のセレクションを介して対処される。
次に、PFL重みを割り当てるために、期待最大化法を用いてクライアントのデータ間の類似性を評価し、選択したPFL隣人間で最適な重量分布を求める。
実験の結果,pFedWNは非IIDおよびアンバランスデータセットを用いて,効率的かつパーソナライズされた学習性能を提供することがわかった。
さらに、特に動的で予測不能な無線チャネル条件下で、学習効率と堅牢性の観点から、既存のFL法とPFL法を上回ります。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Adaptive Client Selection with Personalization for Communication Efficient Federated Learning [2.8484833657472644]
Federated Learning(FL)は、機械学習モデルを協調的にトレーニングするための分散アプローチである。
本稿では, FL環境下でのモデルのトレーニングにおいて, 全体的な通信コストと計算コストを削減できるACSP-FLについて紹介する。
論文 参考訳(メタデータ) (2024-11-26T19:20:59Z) - Smart Sampling: Helping from Friendly Neighbors for Decentralized Federated Learning [10.917048408073846]
分散FL(DFL)における近傍のサンプリングと集約のための簡易かつ効率的なアルゴリズムであるAFIND+を導入する。
AFIND+は有用な隣人を識別し、選択された隣人の数を適応的に調整し、サンプルされた隣人のモデルを戦略的に集約する。
実世界のデータセットの数値的な結果は、AFIND+がDFLの他のサンプリングアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2024-07-05T12:10:54Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Learning to Transmit with Provable Guarantees in Wireless Federated
Learning [40.11488246920875]
干渉制限無線ネットワーク上でのフェデレーション学習(FL)に送信電力を割り当てる新しいデータ駆動方式を提案する。
提案手法は、FLトレーニングプロセス中に無線チャネルが変化している場合の課題に有用である。
最終的な目標は、訓練中のグローバルFLモデルの精度と効率を改善することです。
論文 参考訳(メタデータ) (2023-04-18T22:28:03Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。