論文の概要: Uncovering the Connection Between Differential Privacy and Certified
Robustness of Federated Learning against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2209.04030v1
- Date: Thu, 8 Sep 2022 21:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:57:59.459125
- Title: Uncovering the Connection Between Differential Privacy and Certified
Robustness of Federated Learning against Poisoning Attacks
- Title(参考訳): 中毒攻撃に対するフェデレーション学習における差分プライバシと認定ロバスト性の関係を明らかにする
- Authors: Chulin Xie, Yunhui Long, Pin-Yu Chen, Bo Li
- Abstract要約: フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
インスタンスレベルのプライバシーを改善するための新しいメカニズムを提案する。
- 参考スコア(独自算出の注目度): 68.9907048940271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) provides an efficient paradigm to jointly train a
global model leveraging data from distributed users. As the local training data
come from different users who may not be trustworthy, several studies have
shown that FL is vulnerable to poisoning attacks. Meanwhile, to protect the
privacy of local users, FL is always trained in a differentially private way
(DPFL). Thus, in this paper, we ask: Can we leverage the innate privacy
property of DPFL to provide certified robustness against poisoning attacks? Can
we further improve the privacy of FL to improve such certification? We first
investigate both user-level and instance-level privacy of FL and propose novel
mechanisms to achieve improved instance-level privacy. We then provide two
robustness certification criteria: certified prediction and certified attack
cost for DPFL on both levels. Theoretically, we prove the certified robustness
of DPFL under a bounded number of adversarial users or instances. Empirically,
we conduct extensive experiments to verify our theories under a range of
attacks on different datasets. We show that DPFL with a tighter privacy
guarantee always provides stronger robustness certification in terms of
certified attack cost, but the optimal certified prediction is achieved under a
proper balance between privacy protection and utility loss.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための効率的なパラダイムを提供する。
地元のトレーニングデータは信頼性の低い異なるユーザーから来ているため、いくつかの研究でflは中毒攻撃に弱いことが示されている。
一方、ローカルユーザーのプライバシーを保護するため、FLは常に差分プライベート(DPFL)で訓練されている。
そこで,本論文では,DPFLの本質的なプライバシー特性を利用して,毒殺攻撃に対する信頼性の高いロバスト性を提供できるか?
このような認証を改善するために、FLのプライバシーをさらに改善できるだろうか?
まず、FLのユーザレベルとインスタンスレベルの両方のプライバシを調査し、インスタンスレベルのプライバシを改善するための新しいメカニズムを提案する。
次に,2つのロバスト性認定基準を提示する。両レベルにおけるdpflの認証予測と認証攻撃コストである。
理論的には, DPFLの証明された堅牢性を, ユーザ数やインスタンス数で証明する。
実験的な実験により、さまざまなデータセットに対する攻撃範囲で理論を検証する。
より厳密なプライバシー保証を持つdpflは、常に認証された攻撃コストの観点から強固な堅牢性認定を提供するが、最適な認証予測は、プライバシー保護とユーティリティ損失の適切なバランスの下で達成される。
関連論文リスト
- FLShield: A Validation Based Federated Learning Framework to Defend
Against Poisoning Attacks [1.8925617030516926]
フェデレーテッド・ラーニング(FL)は、自動運転車や医療など、多くの安全上重要な領域で使われている。
本稿では,FL参加者の良性データを用いて局所モデルを検証するFLShieldという新しいFLフレームワークを提案する。
我々はFLShieldフレームワークを様々な環境で評価し、様々な種類の毒やバックドア攻撃を阻止する効果を実証するために広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2023-08-10T19:29:44Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication [22.171647103023773]
フェデレートラーニング(FL)は、分散された構造のため、大量のデータをプライベートにトレーニングすることができる。
SGDを用いたFLモデルにおいて,ユーザデータのローカル差分プライバシー(LDP)を維持するためのガウス的メカニズムを検討する。
その結果,既存のプライバシ会計法と比較して,実用性が大きく,伝送速度も低いことが保証された。
論文 参考訳(メタデータ) (2021-02-09T10:04:18Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。