論文の概要: CRS-FL: Conditional Random Sampling for Communication-Efficient and
Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2306.00674v1
- Date: Thu, 1 Jun 2023 13:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 15:54:02.491220
- Title: CRS-FL: Conditional Random Sampling for Communication-Efficient and
Privacy-Preserving Federated Learning
- Title(参考訳): CRS-FL:通信効率・プライバシー保護フェデレーション学習のための条件付きランダムサンプリング
- Authors: Jianhua Wang. Xiaolin Chang, Jelena Mi\v{s}i\'c, Vojislav B.
Mi\v{s}i\'c, Lin Li, and Yingying Yao
- Abstract要約: 本稿では、条件付きランダムサンプリング(CRS)手法を提案し、標準フェデレート学習設定(CRS-FL)に実装する。
CRSは、ゼロ・グラディエント・アンバイアスの確率が高く、モデル精度を劣化させることなく、通信オーバーヘッドを効果的に低減する。
実験の結果,CRS-FLは送信バイト当たりのメートル法精度において,既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.278968474722252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL), a privacy-oriented distributed ML paradigm, is being
gaining great interest in Internet of Things because of its capability to
protect participants data privacy. Studies have been conducted to address
challenges existing in standard FL, including communication efficiency and
privacy-preserving. But they cannot achieve the goal of making a tradeoff
between communication efficiency and model accuracy while guaranteeing privacy.
This paper proposes a Conditional Random Sampling (CRS) method and implements
it into the standard FL settings (CRS-FL) to tackle the above-mentioned
challenges. CRS explores a stochastic coefficient based on Poisson sampling to
achieve a higher probability of obtaining zero-gradient unbiasedly, and then
decreases the communication overhead effectively without model accuracy
degradation. Moreover, we dig out the relaxation Local Differential Privacy
(LDP) guarantee conditions of CRS theoretically. Extensive experiment results
indicate that (1) in communication efficiency, CRS-FL performs better than the
existing methods in metric accuracy per transmission byte without model
accuracy reduction in more than 7% sampling ratio (# sampling size / # model
size); (2) in privacy-preserving, CRS-FL achieves no accuracy reduction
compared with LDP baselines while holding the efficiency, even exceeding them
in model accuracy under more sampling ratio conditions.
- Abstract(参考訳): プライバシー指向分散mlパラダイムであるfederated learning(fl)は、参加者データプライバシを保護する能力によって、モノのインターネットに大きな関心を集めている。
通信効率やプライバシー保護など,標準FLに存在する課題に対処するために研究が進められている。
しかし、プライバシーを保証しながら通信効率とモデルの正確性をトレードオフするという目標を達成できない。
本稿では、条件付きランダムサンプリング(CRS)手法を提案し、上記の課題に対処するために標準FL設定(CRS-FL)に実装する。
CRSは、ポアソンサンプリングに基づく確率係数を探索し、ゼロ勾配を偏りなく得る確率を高くし、モデル精度の劣化なしに通信オーバーヘッドを効果的に低減する。
さらに,CRSの条件を理論的に保証する局所微分プライバシー(LDP)の緩和について検討する。
CRS-FL は,(1) 通信効率において,7% 以上のサンプリング比 (# サンプリングサイズ/# モデルサイズ) でモデル精度を低下させることなく,既存の伝送バイト当たりのメートル法よりも優れた精度を実現し,(2) プライバシ保存では,効率を保ちながら LDP ベースラインと比較して精度を低下させることなく,よりサンプリング比条件下でモデル精度を上回っている。
関連論文リスト
- CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - FedLog: Personalized Federated Classification with Less Communication and More Flexibility [24.030147353437382]
フェデレーション表現学習(FRL)は、ローカルデータから効果的な特徴抽出によるパーソナライズされたフェデレーションモデルを学習することを目的としている。
オーバヘッドを低減するため、生モデルパラメータの代わりに十分なデータサマリーを共有することを提案する。
論文 参考訳(メタデータ) (2024-07-11T09:40:29Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning [1.802525429431034]
我々はFedADMM-InSaと呼ばれる不正確な自己適応型FedADMMアルゴリズムを提案する。
結果の不正確なADMMの収束は、強い凸損失関数の仮定の下で証明される。
提案アルゴリズムは,クライアントの局所的な計算負荷を大幅に低減し,バニラFedADMMと比較して学習プロセスを高速化する。
論文 参考訳(メタデータ) (2024-02-21T18:19:20Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication [22.171647103023773]
フェデレートラーニング(FL)は、分散された構造のため、大量のデータをプライベートにトレーニングすることができる。
SGDを用いたFLモデルにおいて,ユーザデータのローカル差分プライバシー(LDP)を維持するためのガウス的メカニズムを検討する。
その結果,既存のプライバシ会計法と比較して,実用性が大きく,伝送速度も低いことが保証された。
論文 参考訳(メタデータ) (2021-02-09T10:04:18Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。