論文の概要: Sparse Federated Learning with Hierarchical Personalized Models
- arxiv url: http://arxiv.org/abs/2203.13517v3
- Date: Mon, 25 Sep 2023 06:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 05:14:44.411294
- Title: Sparse Federated Learning with Hierarchical Personalized Models
- Title(参考訳): 階層型パーソナライズモデルによる疎結合学習
- Authors: Xiaofeng Liu, Qing Wang, Yunfeng Shao, Yinchuan Li
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
- 参考スコア(独自算出の注目度): 24.763028713043468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) can achieve privacy-safe and reliable collaborative
training without collecting users' private data. Its excellent privacy security
potential promotes a wide range of FL applications in Internet-of-Things (IoT),
wireless networks, mobile devices, autonomous vehicles, and cloud medical
treatment. However, the FL method suffers from poor model performance on
non-i.i.d. data and excessive traffic volume. To this end, we propose a
personalized FL algorithm using a hierarchical proximal mapping based on the
moreau envelop, named sparse federated learning with hierarchical personalized
models (sFedHP), which significantly improves the global model performance
facing diverse data. A continuously differentiable approximated L1-norm is also
used as the sparse constraint to reduce the communication cost. Convergence
analysis shows that sFedHP's convergence rate is state-of-the-art with linear
speedup and the sparse constraint only reduces the convergence rate to a small
extent while significantly reducing the communication cost. Experimentally, we
demonstrate the benefits of sFedHP compared with the FedAvg, HierFAVG
(hierarchical FedAvg), and personalized FL methods based on local
customization, including FedAMP, FedProx, Per-FedAvg, pFedMe, and pFedGP.
- Abstract(参考訳): フェデレーション学習(fl)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高いコラボレーショントレーニングを実現することができる。
その優れたプライバシーセキュリティポテンシャルは、IoT(Internet-of-Things)、無線ネットワーク、モバイルデバイス、自動運転車、クラウド医療における幅広いFLアプリケーションを促進する。
しかし、FL法は、非単位のデータと過剰なトラフィック量に対するモデル性能の低下に悩まされている。
そこで本稿では,階層型パーソナライズモデル (sFedHP) を用いたスパース・フェデレーション・ラーニング(sparse federated learning) という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能なL1ノルムをスパース制約として使用して通信コストを低減する。
収束解析により、sFedHPの収束速度は線形スピードアップによる最先端であり、スパース制約は、通信コストを著しく低減しつつ、収束率をわずかに低下させる。
実験では,FedAMP,FedProx,Per-FedAvg,pFedMe,pFedGPなどの局所的なカスタマイズに基づくFL法と,FedAvg,HierFAVG(階層的FedAvg)と比較してsFedHPの利点を実証した。
関連論文リスト
- User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Privacy Assessment of Federated Learning using Private Personalized
Layers [0.9023847175654603]
Federated Learning(FL)は、データを共有することなく、複数の参加者にまたがって学習モデルをトレーニングするコラボレーティブスキームである。
プライベートなパーソナライズされたレイヤを用いてFLスキームの実用性とプライバシのトレードオフを定量化する。
論文 参考訳(メタデータ) (2021-06-15T11:40:16Z) - Wireless Federated Learning with Limited Communication and Differential
Privacy [21.328507360172203]
本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,リモートユーザにおけるローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。
論文 参考訳(メタデータ) (2021-06-01T15:23:12Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。