論文の概要: Optimizing Communication and Device Clustering for Clustered Federated Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2507.07320v1
- Date: Wed, 09 Jul 2025 22:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.22358
- Title: Optimizing Communication and Device Clustering for Clustered Federated Learning with Differential Privacy
- Title(参考訳): 差分プライバシによるクラスタ化フェデレーション学習のための通信とデバイスクラスタリングの最適化
- Authors: Dongyu Wei, Xiaoren Xu, Shiwen Mao, Mingzhe Chen,
- Abstract要約: 本稿では,セキュアで通信効率のよいクラスタ型フェデレーションラーニング(CFL)の設計を提案する。
本モデルでは、不均一なタスクハンドリング機能を持つ複数の基地局(BS)と、非独立で同一に分散された(非IID)データを持つ複数の利用者が共同でCFLトレーニングを行う。
本稿では,分散BSを独立して接続したユーザを識別する,動的ペナルティ関数支援値多エージェント強化学習(DPVD-MARL)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 28.120922916868683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a secure and communication-efficient clustered federated learning (CFL) design is proposed. In our model, several base stations (BSs) with heterogeneous task-handling capabilities and multiple users with non-independent and identically distributed (non-IID) data jointly perform CFL training incorporating differential privacy (DP) techniques. Since each BS can process only a subset of the learning tasks and has limited wireless resource blocks (RBs) to allocate to users for federated learning (FL) model parameter transmission, it is necessary to jointly optimize RB allocation and user scheduling for CFL performance optimization. Meanwhile, our considered CFL method requires devices to use their limited data and FL model information to determine their task identities, which may introduce additional communication overhead. We formulate an optimization problem whose goal is to minimize the training loss of all learning tasks while considering device clustering, RB allocation, DP noise, and FL model transmission delay. To solve the problem, we propose a novel dynamic penalty function assisted value decomposed multi-agent reinforcement learning (DPVD-MARL) algorithm that enables distributed BSs to independently determine their connected users, RBs, and DP noise of the connected users but jointly minimize the training loss of all learning tasks across all BSs. Different from the existing MARL methods that assign a large penalty for invalid actions, we propose a novel penalty assignment scheme that assigns penalty depending on the number of devices that cannot meet communication constraints (e.g., delay), which can guide the MARL scheme to quickly find valid actions, thus improving the convergence speed. Simulation results show that the DPVD-MARL can improve the convergence rate by up to 20% and the ultimate accumulated rewards by 15% compared to independent Q-learning.
- Abstract(参考訳): 本稿では,セキュアで通信効率のよいクラスタ型フェデレーションラーニング(CFL)の設計を提案する。
本モデルでは,不均一なタスクハンドリング機能を持つ複数の基地局(BS)と,非独立で同一に分散された(非IID)データを持つ複数の利用者が,差分プライバシ(DP)技術を活用したCFLトレーニングを共同で実施する。
各BSは学習タスクのサブセットのみを処理でき、ユーザに対してFLモデルパラメータ送信を行うために限られた無線リソースブロック(RB)を持つため、CFL性能最適化のためのRBアロケーションとユーザスケジューリングを共同で最適化する必要がある。
一方,提案手法では,限られたデータとFLモデル情報を用いてタスクの同一性を決定する必要があるため,通信オーバーヘッドが増大する可能性がある。
デバイスクラスタリング, RBアロケーション, DPノイズ, FLモデルの送信遅延を考慮した場合, 学習タスクのトレーニング損失を最小限に抑えることを目的とした最適化問題を定式化する。
そこで本研究では,分散BSが接続ユーザの接続ユーザ,RB,DPノイズを独立に決定できると同時に,すべてのBSにおける学習タスクのトレーニング損失を最小化できる,新しい動的ペナルティ関数支援型マルチエージェント強化学習(DPVD-MARL)アルゴリズムを提案する。
無効行為に対する大きなペナルティを割り当てる既存のMARL法とは違い,通信制約(例えば遅延)を満たすことができないデバイス数に応じてペナルティを割り当てる新たなペナルティ割当て方式を提案する。
シミュレーションの結果, DPVD-MARLは, 独立Q-ラーニングと比較して最大20%の収束率, 最大15%の累積報酬を向上できることがわかった。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - AdaptSFL: Adaptive Split Federated Learning in Resource-constrained Edge Networks [15.195798715517315]
Split Federated Learning(SFL)は、モデルのパーティショニングを通じて、最初のトレーニングワークロードをサーバにfloadする、有望なソリューションである。
本稿では,資源制約付きエッジコンピューティングシステムにおいて,SFLを高速化するための新しいリソース適応型SFLフレームワークであるAdaptSFLを提案する。
論文 参考訳(メタデータ) (2024-03-19T19:05:24Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Latency Optimization for Blockchain-Empowered Federated Learning in
Multi-Server Edge Computing [24.505675843652448]
本稿では,マルチサーバエッジコンピューティングにおけるフェデレーション学習(BFL)のための新しいレイテンシ最適化問題について検討する。
このシステムモデルでは、分散モバイルデバイス(MD)がエッジサーバ(ES)と通信し、機械学習(ML)モデルのトレーニングとブロックマイニングの両方を同時に処理する。
論文 参考訳(メタデータ) (2022-03-18T00:38:29Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。