論文の概要: Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning
- arxiv url: http://arxiv.org/abs/2009.03561v5
- Date: Fri, 27 May 2022 12:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:20:04.456203
- Title: Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning
- Title(参考訳): フェデレーション学習におけるロバストネスとプライバシのための局所的および中央的微分プライバシー
- Authors: Mohammad Naseri, Jamie Hayes, and Emiliano De Cristofaro
- Abstract要約: フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
- 参考スコア(独自算出の注目度): 13.115388879531967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) allows multiple participants to train machine
learning models collaboratively by keeping their datasets local while only
exchanging model updates. Alas, this is not necessarily free from privacy and
robustness vulnerabilities, e.g., via membership, property, and backdoor
attacks. This paper investigates whether and to what extent one can use
differential Privacy (DP) to protect both privacy and robustness in FL. To this
end, we present a first-of-its-kind evaluation of Local and Central
Differential Privacy (LDP/CDP) techniques in FL, assessing their feasibility
and effectiveness. Our experiments show that both DP variants do d fend against
backdoor attacks, albeit with varying levels of protection-utility trade-offs,
but anyway more effectively than other robustness defenses. DP also mitigates
white-box membership inference attacks in FL, and our work is the first to show
it empirically. Neither LDP nor CDP, however, defend against property
inference. Overall, our work provides a comprehensive, re-usable measurement
methodology to quantify the trade-offs between robustness/privacy and utility
in differentially private FL.
- Abstract(参考訳): フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
残念なことに、これは必ずしもプライバシーや堅牢性の脆弱性(例えば、メンバーシップ、プロパティ、バックドア攻撃など)から解放されるわけではない。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかを検討する。
そこで本研究では,ldp/cdp(local and central differential privacy)手法をflで評価し,その実現可能性と有効性を評価する。
実験の結果,DPの両変種は,保護・実用トレードオフのレベルが異なるが,他の堅牢性防御よりも効果的であることがわかった。
DPはまた、FLにおけるホワイトボックスメンバーシップ推論攻撃を緩和し、我々の研究は経験的にそれを初めて示した。
しかし、LDPもCDPも、財産推測を擁護するものではない。
全体として、我々の研究は、微分プライベートflにおける堅牢性/プライバシーと実用性の間のトレードオフを定量化する包括的な再利用可能な測定方法を提供します。
関連論文リスト
- Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Understanding the Interplay between Privacy and Robustness in Federated
Learning [15.673448030003788]
フェデレートラーニング(FL)は、プライバシー保護機械学習の有望なパラダイムとして浮上している。
最近の作業では、FLのいくつかのプライバシとロバストネスの弱点が強調されている。
LDPがFLの敵対的堅牢性にどのように影響するかは、まだ不明である。
論文 参考訳(メタデータ) (2021-06-13T16:01:35Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。