論文の概要: Byzantine-Robust and Privacy-Preserving Framework for FedML
- arxiv url: http://arxiv.org/abs/2105.02295v1
- Date: Wed, 5 May 2021 19:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:11:40.051737
- Title: Byzantine-Robust and Privacy-Preserving Framework for FedML
- Title(参考訳): FedMLのためのByzantine-Robustとプライバシ保護フレームワーク
- Authors: Hanieh Hashemi, Yongqin Wang, Chuan Guo, Murali Annavaram
- Abstract要約: フェデレーションラーニングは、一連のクライアントに分散されたデータからモデルを共同トレーニングするための一般的なパラダイムとして登場した。
この学習設定は、トレーニング中のクライアントデータのプライバシ保護方法と、トレーニングされたモデルの整合性を保証する方法の2つのユニークな課題を示す。
2つの課題を一つの枠組みで解決する2つのソリューションを提案します。
- 参考スコア(独自算出の注目度): 10.124385820546014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has emerged as a popular paradigm for collaboratively
training a model from data distributed among a set of clients. This learning
setting presents, among others, two unique challenges: how to protect privacy
of the clients' data during training, and how to ensure integrity of the
trained model. We propose a two-pronged solution that aims to address both
challenges under a single framework. First, we propose to create secure
enclaves using a trusted execution environment (TEE) within the server. Each
client can then encrypt their gradients and send them to verifiable enclaves.
The gradients are decrypted within the enclave without the fear of privacy
breaches. However, robustness check computations in a TEE are computationally
prohibitive. Hence, in the second step, we perform a novel gradient encoding
that enables TEEs to encode the gradients and then offloading Byzantine check
computations to accelerators such as GPUs. Our proposed approach provides
theoretical bounds on information leakage and offers a significant speed-up
over the baseline in empirical evaluation.
- Abstract(参考訳): フェデレーション学習は、一連のクライアント間で分散されたデータからモデルを協調的にトレーニングするための一般的なパラダイムとして登場した。
この学習設定は、トレーニング中のクライアントデータのプライバシ保護方法と、トレーニングされたモデルの完全性を保証する方法の2つのユニークな課題である。
一つのフレームワークで両方の課題に対処することを目的とした2段階のソリューションを提案する。
まず、サーバ内でtrusted execution environment(tee)を使用してセキュアなエンクレーブを作成することを提案する。
各クライアントは勾配を暗号化し、検証可能なエンクレーブに送ることができる。
勾配はプライバシー侵害を恐れずにエンクレーブ内で復号化される。
しかし、TEEの堅牢性チェック計算は計算が禁止されている。
したがって、第2のステップでは、teesが勾配をエンコードし、ビザンチンチェック計算をgpuなどのアクセラレータにオフロードできる新しい勾配エンコーディングを行う。
提案手法は,情報漏洩に関する理論的境界を提供し,経験的評価におけるベースラインの大幅な高速化を提供する。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。