論文の概要: Poisoning Attacks and Defenses to Federated Unlearning
- arxiv url: http://arxiv.org/abs/2501.17396v1
- Date: Wed, 29 Jan 2025 03:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:03.406201
- Title: Poisoning Attacks and Defenses to Federated Unlearning
- Title(参考訳): フェデレーション・アンラーニングに対する攻撃と防御
- Authors: Wenbin Wang, Qiwen Ma, Zifan Zhang, Yuchen Liu, Zhuqing Liu, Minghong Fang,
- Abstract要約: フェデレートされた未学習は、悪意のあるクライアントによる攻撃を害するおそれがある。
我々は,フェデレート・アンラーニングを標的とした最初の毒殺攻撃であるBadUnlearnを提案する。
BadUnlearnは既存の非学習手法を効果的に破壊できる一方で、UnlearnGuardは依然として毒殺攻撃に対して安全であることを示す。
- 参考スコア(独自算出の注目度): 9.518552973479684
- License:
- Abstract: Federated learning allows multiple clients to collaboratively train a global model with the assistance of a server. However, its distributed nature makes it susceptible to poisoning attacks, where malicious clients can compromise the global model by sending harmful local model updates to the server. To unlearn an accurate global model from a poisoned one after identifying malicious clients, federated unlearning has been introduced. Yet, current research on federated unlearning has primarily concentrated on its effectiveness and efficiency, overlooking the security challenges it presents. In this work, we bridge the gap via proposing BadUnlearn, the first poisoning attacks targeting federated unlearning. In BadUnlearn, malicious clients send specifically designed local model updates to the server during the unlearning process, aiming to ensure that the resulting unlearned model remains poisoned. To mitigate these threats, we propose UnlearnGuard, a robust federated unlearning framework that is provably robust against both existing poisoning attacks and our BadUnlearn. The core concept of UnlearnGuard is for the server to estimate the clients' local model updates during the unlearning process and employ a filtering strategy to verify the accuracy of these estimations. Theoretically, we prove that the model unlearned through UnlearnGuard closely resembles one obtained by train-from-scratch. Empirically, we show that BadUnlearn can effectively corrupt existing federated unlearning methods, while UnlearnGuard remains secure against poisoning attacks.
- Abstract(参考訳): フェデレートラーニングにより、複数のクライアントがサーバの助けを借りてグローバルモデルを共同でトレーニングできる。
しかし、その分散した性質は、悪意のあるクライアントが悪質なローカルモデル更新をサーバに送信することで、グローバルモデルに悪影響を及ぼすような、有害な攻撃を受けやすい。
悪意のあるクライアントを特定した後、有毒なクライアントから正確なグローバルモデルを引き出すため、フェデレートされたアンラーニングが導入されている。
しかし、連合的アンラーニングに関する現在の研究は、主にその効果と効率に重点を置いており、それが提示するセキュリティ上の課題を見下ろしている。
本研究では,フェデレート・アンラーニングを狙った最初の毒殺攻撃であるBadUnlearnを提案することによって,このギャップを埋める。
BadUnlearnでは、悪意のあるクライアントが、未学習のプロセス中に特別に設計されたローカルモデルのアップデートをサーバに送る。
これらの脅威を軽減するために、我々はUnlearnGuardを提案します。これは、既存の毒殺攻撃と我々のBadUnlearnの両方に対して、確実に堅牢な、堅牢なフェデレーション付きアンラーニングフレームワークです。
UnlearnGuardの中核的な概念は、サーバが未学習プロセス中にクライアントのローカルモデル更新を推定し、これらの推定の正確性を検証するためにフィルタリング戦略を採用することである。
理論的には、UnlearnGuardを通して学習されたモデルが、スクラッチからの列車で得られたモデルとよく似ていることを証明している。
経験的に、BadUnlearnは既存のフェデレーション・アンラーニング手法を効果的に破壊できるが、UnlearnGuardは依然として毒殺攻撃に対して安全である。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - TESSERACT: Gradient Flip Score to Secure Federated Learning Against
Model Poisoning Attacks [25.549815759093068]
フェデレート学習は、モデル中毒攻撃に対して脆弱である。
これは、悪意のあるクライアントが、グローバルなモデルを不正確なものにするためです。
我々は、この指向的偏差攻撃に対する防御であるTESSERACTを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:03:29Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。