論文の概要: PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2312.01045v1
- Date: Sat, 2 Dec 2023 06:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 19:27:23.672493
- Title: PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks
- Title(参考訳): PROFL: 攻撃に対する厳格な防御を備えたプライバシ保護フェデレーション学習手法
- Authors: Yisheng Zhong, Li-Ping Wang
- Abstract要約: Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
- 参考スコア(独自算出の注目度): 2.6487166137163007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) faces two major issues: privacy leakage and poisoning
attacks, which may seriously undermine the reliability and security of the
system. Overcoming them simultaneously poses a great challenge. This is because
privacy protection policies prohibit access to users' local gradients to avoid
privacy leakage, while Byzantine-robust methods necessitate access to these
gradients to defend against poisoning attacks. To address these problems, we
propose a novel privacy-preserving Byzantine-robust FL framework PROFL. PROFL
is based on the two-trapdoor additional homomorphic encryption algorithm and
blinding techniques to ensure the data privacy of the entire FL process. During
the defense process, PROFL first utilize secure Multi-Krum algorithm to remove
malicious gradients at the user level. Then, according to the Pauta criterion,
we innovatively propose a statistic-based privacy-preserving defense algorithm
to eliminate outlier interference at the feature level and resist impersonation
poisoning attacks with stronger concealment. Detailed theoretical analysis
proves the security and efficiency of the proposed method. We conducted
extensive experiments on two benchmark datasets, and PROFL improved accuracy by
39% to 75% across different attack settings compared to similar
privacy-preserving robust methods, demonstrating its significant advantage in
robustness.
- Abstract(参考訳): 連合学習(federated learning, ffl)は,プライバシリークと毒殺攻撃という,システムの信頼性とセキュリティを著しく損なう2つの大きな問題に直面している。
同時に克服することは大きな課題となる。
これは、プライバシー保護ポリシーがプライバシーの漏洩を避けるためにユーザーのローカルな勾配へのアクセスを禁止しているのに対し、ビザンティン・ロバスト法は毒殺攻撃を防ぐためにこれらの勾配へのアクセスを必要としているためである。
このような問題に対処するため,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
proflは、2trapdoorの追加の準同型暗号アルゴリズムと、flプロセス全体のデータのプライバシを確保するブラインド技術に基づいている。
防衛プロセスの間、PROFLはまずセキュアなMulti-Krumアルゴリズムを使用して、ユーザレベルで悪意のある勾配を取り除く。
そして,パウタ基準により,特徴レベルでの異常干渉を除去し,より強力な隠蔽により偽毒攻撃に抵抗する,統計に基づくプライバシ保存防御アルゴリズムを革新的に提案する。
詳細な理論解析により,提案手法の安全性と効率が証明された。
我々は,2つのベンチマークデータセットについて広範な実験を行い,proflは,類似のプライバシ保存型ロバスト手法と比較して,異なるアタック設定で39%から75%精度が向上した。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Byzantine-Robust and Privacy-Preserving Framework for FedML [10.124385820546014]
フェデレーションラーニングは、一連のクライアントに分散されたデータからモデルを共同トレーニングするための一般的なパラダイムとして登場した。
この学習設定は、トレーニング中のクライアントデータのプライバシ保護方法と、トレーニングされたモデルの整合性を保証する方法の2つのユニークな課題を示す。
2つの課題を一つの枠組みで解決する2つのソリューションを提案します。
論文 参考訳(メタデータ) (2021-05-05T19:36:21Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z) - An Accuracy-Lossless Perturbation Method for Defending Privacy Attacks
in Federated Learning [82.80836918594231]
フェデレーション学習は、生データではなく、局所的な勾配やパラメータを交換することで、トレーニングデータのプライバシを改善する。
敵は、局所勾配とパラメータを利用して、再構築とメンバーシップ推論攻撃を起動することで、局所的なトレーニングデータを取得することができる。
このようなプライバシ攻撃を防御するために、多くのノイズ摂動法が広く設計されている。
論文 参考訳(メタデータ) (2020-02-23T06:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。