論文の概要: $\beta$-Stochastic Sign SGD: A Byzantine Resilient and Differentially
Private Gradient Compressor for Federated Learning
- arxiv url: http://arxiv.org/abs/2210.00665v1
- Date: Mon, 3 Oct 2022 00:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:31:09.293591
- Title: $\beta$-Stochastic Sign SGD: A Byzantine Resilient and Differentially
Private Gradient Compressor for Federated Learning
- Title(参考訳): β$-stochastic sign sgd:連合学習のためのビザンチン弾性・差動プライベート勾配圧縮機
- Authors: Ming Xiang, Lili Su
- Abstract要約: Federated Learning(FL)は、モデルトレーニングを通じてクライアントのローカルデータをローカルに保持する、プライバシ保護学習フレームワークである。
我々は、クライアントの勾配情報を符号ビットにエンコードする勾配を含む$beta$-stochastic sign SGDを提案する。
我々は、$beta>0$, $beta$-stochastic sign SGDが、部分的なクライアント参加とモバイルビザンチン障害の存在下で収束していることを示す。
- 参考スコア(独自算出の注目度): 2.969705152497174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a nascent privacy-preserving learning framework
under which the local data of participating clients is kept locally throughout
model training. Scarce communication resources and data heterogeneity are two
defining characteristics of FL. Besides, a FL system is often implemented in a
harsh environment -- leaving the clients vulnerable to Byzantine attacks. To
the best of our knowledge, no gradient compressors simultaneously achieve
quantitative Byzantine resilience and privacy preservation. In this paper, we
fill this gap via revisiting the stochastic sign SGD \cite{jin 2020}. We
propose $\beta$-stochastic sign SGD, which contains a gradient compressor that
encodes a client's gradient information in sign bits subject to the privacy
budget $\beta>0$. We show that as long as $\beta>0$, $\beta$-stochastic sign
SGD converges in the presence of partial client participation and mobile
Byzantine faults, showing that it achieves quantifiable Byzantine-resilience
and differential privacy simultaneously. In sharp contrast, when $\beta=0$, the
compressor is not differentially private. Notably, for the special case when
each of the stochastic gradients involved is bounded with known bounds, our
gradient compressor with $\beta=0$ coincides with the compressor proposed in
\cite{jin 2020}. As a byproduct, we show that when the clients report sign
messages, the popular information aggregation rules simple mean, trimmed mean,
median and majority vote are identical in terms of the output signs. Our
theories are corroborated by experiments on MNIST and CIFAR-10 datasets.
- Abstract(参考訳): Federated Learning(FL)は、モデルトレーニングを通じてクライアントのローカルデータをローカルに保持する、新しいプライバシ保護学習フレームワークである。
Scarce通信資源とデータ不均一性はFLの2つの定義特性である。
さらに、flシステムはしばしば厳しい環境で実装され、クライアントはビザンチン攻撃に対して脆弱である。
最善の知識として、勾配圧縮機は定量的ビザンチン弾性とプライバシー保護を同時に達成することができない。
本稿では,確率記号 SGD \cite{jin 2020} を再考することによって,このギャップを埋める。
我々は,プライバシ予算$\beta>0$の条件でクライアントの勾配情報を符号ビットにエンコードする勾配圧縮器を含む$\beta$-stochastic sign sgdを提案する。
我々は,$\beta>0$,$\beta$-stochastic sign sgdが部分的クライアント参加とモバイルビザンチン障害の存在下で収束する限り,定量化ビザンチン耐性と微分プライバシーを同時に達成できることを示す。
対照的に、$\beta=0$ の場合、圧縮機は微分プライベートではない。
特に、各確率勾配が既知の境界で有界である特別な場合、$\beta=0$ の勾配圧縮器は \cite{jin 2020} で提案された圧縮器と一致する。
副産物として、クライアントがサインメッセージを報告すると、一般的な情報集約ルールは単純平均、トリミング平均、中央値、多数決が出力符号で同一であることが示される。
我々の理論は、MNISTとCIFAR-10データセットの実験によって裏付けられている。
関連論文リスト
- Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining Competitive Performance in Federated Learning [11.852346300577494]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協調して機械学習モデルを構築することを可能にすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報が勾配に基づくプライバシー攻撃の対象であることが示されている。
我々は,条件付き生成対向ネットワークを利用して高レベルのプライバシ保護を実現する新しいフェデレーション学習手法である$textscFedCG$を提案する。
論文 参考訳(メタデータ) (2021-11-16T03:20:37Z) - Permutation Compressors for Provably Faster Distributed Nonconvex
Optimization [68.8204255655161]
本稿では,Gorbunov et al (2021) の MARINA 法が,理論的な通信複雑性の観点から最先端の手法とみなすことができることを示す。
MARINAの理論は、古典的な独立圧縮機設定を超えて、潜在的にエミュレートされた圧縮機の理論を支持するものである。
論文 参考訳(メタデータ) (2021-10-07T09:38:15Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - On Biased Compression for Distributed Learning [55.89300593805943]
バイアス圧縮機が単一ノードと分散設定の両方において線形収束率をもたらすことを初めて示す。
理論的保証と実用性能を期待できる新しいバイアス圧縮機を提案する。
論文 参考訳(メタデータ) (2020-02-27T19:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。