論文の概要: Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2209.04030v3
- Date: Sat, 30 Dec 2023 16:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 03:05:47.119010
- Title: Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks
- Title(参考訳): 中毒攻撃に対する連帯学習におけるプライバシと認定堅牢性の関係の解明
- Authors: Chulin Xie, Yunhui Long, Pin-Yu Chen, Qinbin Li, Arash Nourian, Sanmi
Koyejo, Bo Li
- Abstract要約: フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
- 参考スコア(独自算出の注目度): 68.20436971825941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) provides an efficient paradigm to jointly train a
global model leveraging data from distributed users. As local training data
comes from different users who may not be trustworthy, several studies have
shown that FL is vulnerable to poisoning attacks. Meanwhile, to protect the
privacy of local users, FL is usually trained in a differentially private way
(DPFL). Thus, in this paper, we ask: What are the underlying connections
between differential privacy and certified robustness in FL against poisoning
attacks? Can we leverage the innate privacy property of DPFL to provide
certified robustness for FL? Can we further improve the privacy of FL to
improve such robustness certification? We first investigate both user-level and
instance-level privacy of FL and provide formal privacy analysis to achieve
improved instance-level privacy. We then provide two robustness certification
criteria: certified prediction and certified attack inefficacy for DPFL on both
user and instance levels. Theoretically, we provide the certified robustness of
DPFL based on both criteria given a bounded number of adversarial users or
instances. Empirically, we conduct extensive experiments to verify our theories
under a range of poisoning attacks on different datasets. We find that
increasing the level of privacy protection in DPFL results in stronger
certified attack inefficacy; however, it does not necessarily lead to a
stronger certified prediction. Thus, achieving the optimal certified prediction
requires a proper balance between privacy and utility loss.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための効率的なパラダイムを提供する。
地元のトレーニングデータは信頼性の低い異なるユーザーから来ているため、いくつかの研究でflは中毒攻撃に弱いことが示されている。
一方、ローカルユーザのプライバシを保護するため、FLは通常、差分プライベート(DPFL)でトレーニングされる。
そこで,本論文では,flにおける差動プライバシと認証ロバスト性との関係について質問する。
DPFLの本質的なプライバシー特性を利用して、FLに認証された堅牢性を提供できるか?
このような堅牢性認証を改善するために、FLのプライバシーをさらに改善できるだろうか?
まず,ユーザレベルのプライバシとインスタンスレベルのプライバシの両方を調査し,インスタンスレベルのプライバシを改善するための公式なプライバシ解析を提供する。
次に、ユーザレベルとインスタンスレベルの両方において、dpflの認証予測と認証アタック非効率の2つの堅牢性認定基準を提供する。
理論的には, 対向ユーザ数やインスタンス数が限定された場合, 両基準を基準として, dpflのロバスト性が証明されている。
実験的な実験により、さまざまなデータセットに対する様々な毒殺攻撃の下で、我々の理論を検証する。
DPFLにおけるプライバシ保護のレベルの増加は、より強力な攻撃非効率をもたらすが、必ずしもより強力な認証予測につながるとは限らない。
したがって、最適な認定予測を達成するには、プライバシとユーティリティ損失の適切なバランスが必要となる。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - Re-Evaluating Privacy in Centralized and Decentralized Learning: An Information-Theoretical and Empirical Study [4.7773230870500605]
Decentralized Federated Learning (DFL)は、その堅牢性とスケーラビリティに注目を集めている。
Pasquiniらによる最近の研究はこの見解に異議を唱え、DFLは経験的攻撃に対するプライバシーを本質的に改善していないことを実証している。
論文 参考訳(メタデータ) (2024-09-21T23:05:50Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。