論文の概要: Uncovering the Connection Between Differential Privacy and Certified
Robustness of Federated Learning against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2209.04030v1
- Date: Thu, 8 Sep 2022 21:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:57:59.459125
- Title: Uncovering the Connection Between Differential Privacy and Certified
Robustness of Federated Learning against Poisoning Attacks
- Title(参考訳): 中毒攻撃に対するフェデレーション学習における差分プライバシと認定ロバスト性の関係を明らかにする
- Authors: Chulin Xie, Yunhui Long, Pin-Yu Chen, Bo Li
- Abstract要約: フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
インスタンスレベルのプライバシーを改善するための新しいメカニズムを提案する。
- 参考スコア(独自算出の注目度): 68.9907048940271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) provides an efficient paradigm to jointly train a
global model leveraging data from distributed users. As the local training data
come from different users who may not be trustworthy, several studies have
shown that FL is vulnerable to poisoning attacks. Meanwhile, to protect the
privacy of local users, FL is always trained in a differentially private way
(DPFL). Thus, in this paper, we ask: Can we leverage the innate privacy
property of DPFL to provide certified robustness against poisoning attacks? Can
we further improve the privacy of FL to improve such certification? We first
investigate both user-level and instance-level privacy of FL and propose novel
mechanisms to achieve improved instance-level privacy. We then provide two
robustness certification criteria: certified prediction and certified attack
cost for DPFL on both levels. Theoretically, we prove the certified robustness
of DPFL under a bounded number of adversarial users or instances. Empirically,
we conduct extensive experiments to verify our theories under a range of
attacks on different datasets. We show that DPFL with a tighter privacy
guarantee always provides stronger robustness certification in terms of
certified attack cost, but the optimal certified prediction is achieved under a
proper balance between privacy protection and utility loss.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための効率的なパラダイムを提供する。
地元のトレーニングデータは信頼性の低い異なるユーザーから来ているため、いくつかの研究でflは中毒攻撃に弱いことが示されている。
一方、ローカルユーザーのプライバシーを保護するため、FLは常に差分プライベート(DPFL)で訓練されている。
そこで,本論文では,DPFLの本質的なプライバシー特性を利用して,毒殺攻撃に対する信頼性の高いロバスト性を提供できるか?
このような認証を改善するために、FLのプライバシーをさらに改善できるだろうか?
まず、FLのユーザレベルとインスタンスレベルの両方のプライバシを調査し、インスタンスレベルのプライバシを改善するための新しいメカニズムを提案する。
次に,2つのロバスト性認定基準を提示する。両レベルにおけるdpflの認証予測と認証攻撃コストである。
理論的には, DPFLの証明された堅牢性を, ユーザ数やインスタンス数で証明する。
実験的な実験により、さまざまなデータセットに対する攻撃範囲で理論を検証する。
より厳密なプライバシー保証を持つdpflは、常に認証された攻撃コストの観点から強固な堅牢性認定を提供するが、最適な認証予測は、プライバシー保護とユーティリティ損失の適切なバランスの下で達成される。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - Re-Evaluating Privacy in Centralized and Decentralized Learning: An Information-Theoretical and Empirical Study [4.7773230870500605]
Decentralized Federated Learning (DFL)は、その堅牢性とスケーラビリティに注目を集めている。
Pasquiniらによる最近の研究はこの見解に異議を唱え、DFLは経験的攻撃に対するプライバシーを本質的に改善していないことを実証している。
論文 参考訳(メタデータ) (2024-09-21T23:05:50Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。