論文の概要: Aggregating Gradients in Encoded Domain for Federated Learning
- arxiv url: http://arxiv.org/abs/2205.13216v1
- Date: Thu, 26 May 2022 08:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 03:23:31.789142
- Title: Aggregating Gradients in Encoded Domain for Federated Learning
- Title(参考訳): フェデレーション学習のための符号化領域における勾配の集約
- Authors: Dun Zeng, Shiyu Liu, Zenglin Xu
- Abstract要約: 悪意のある攻撃者や、率直に言ってクレージーなサーバは、フェデレート学習においてアップロードされた勾配からプライベートクライアントデータを盗むことができる。
我々は、サーバが単一のクライアントの生の勾配にアクセスすることなく、エンコードされたドメインの勾配を集約できるtextttFedAGEフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.12395694047359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Malicious attackers and an honest-but-curious server can steal private client
data from uploaded gradients in federated learning. Although current protection
methods (e.g., additive homomorphic cryptosystem) can guarantee the security of
the federated learning system, they bring additional computation and
communication costs. To mitigate the cost, we propose the \texttt{FedAGE}
framework, which enables the server to aggregate gradients in an encoded domain
without accessing raw gradients of any single client. Thus, \texttt{FedAGE} can
prevent the curious server from gradient stealing while maintaining the same
prediction performance without additional communication costs. Furthermore, we
theoretically prove that the proposed encoding-decoding framework is a Gaussian
mechanism for differential privacy. Finally, we evaluate \texttt{FedAGE} under
several federated settings, and the results have demonstrated the efficacy of
the proposed framework.
- Abstract(参考訳): 悪意のある攻撃者や、正直なサーバは、連合学習でアップロードされた勾配からプライベートクライアントデータを盗むことができる。
現在の保護法(例えば、追加のホモモルフィック暗号システム)は、連合学習システムのセキュリティを保証することができるが、さらなる計算と通信コストをもたらす。
このフレームワークにより、サーバは、単一のクライアントの生の勾配にアクセスすることなく、エンコードされたドメイン内の勾配を集約できる。
したがって、 \texttt{fedage} は、追加の通信コストなしで同じ予測性能を維持しながら、好奇心のあるサーバが勾配盗みを防止できる。
さらに,提案手法が微分プライバシーのためのガウス機構であることを理論的に証明する。
最後に,いくつかのフェデレーション設定下でのtexttt{FedAGE} の評価を行い,提案手法の有効性を実証した。
関連論文リスト
- GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Gradient Obfuscation Gives a False Sense of Security in Federated
Learning [41.36621813381792]
フェデレート学習における画像分類課題を対象とした新しいデータ再構成攻撃フレームワークを提案する。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱われるべきではない。
論文 参考訳(メタデータ) (2022-06-08T13:01:09Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Byzantine-Robust and Privacy-Preserving Framework for FedML [10.124385820546014]
フェデレーションラーニングは、一連のクライアントに分散されたデータからモデルを共同トレーニングするための一般的なパラダイムとして登場した。
この学習設定は、トレーニング中のクライアントデータのプライバシ保護方法と、トレーニングされたモデルの整合性を保証する方法の2つのユニークな課題を示す。
2つの課題を一つの枠組みで解決する2つのソリューションを提案します。
論文 参考訳(メタデータ) (2021-05-05T19:36:21Z) - FedBoosting: Federated Learning with Gradient Protected Boosting for
Text Recognition [7.988454173034258]
フェデレートラーニング(FL)フレームワークは、データの集中化やデータオーナ間の共有なしに、共有モデルを協調的に学習することを可能にする。
本稿では,非独立性および非独立性分散(Non-IID)データに基づくジョイントモデルの一般化能力について述べる。
本稿では,FLの一般化と勾配リーク問題に対処する新しいブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T18:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。