論文の概要: FLDetector: Detecting Malicious Clients in Model Poisoning Attacks to
Federated Learning
- arxiv url: http://arxiv.org/abs/2207.09209v1
- Date: Tue, 19 Jul 2022 11:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:20:34.111944
- Title: FLDetector: Detecting Malicious Clients in Model Poisoning Attacks to
Federated Learning
- Title(参考訳): FLDetector:フェデレーション学習に対するモデル中毒攻撃における悪意のあるクライアントの検出
- Authors: Zaixi Zhang, Xiaoyu Cao, Jinayuan Jia, Neil Zhenqiang Gong
- Abstract要約: フェデレート・ラーニング(Federated Learning, FL)は、モデル中毒攻撃に対して脆弱である。
悪意のあるクライアントは、操作されたモデルの更新をサーバに送信することで、グローバルモデルを破壊しました。
私たちのFLDetectorは、悪意のあるクライアントの大部分を検出し、削除することを目的としています。
- 参考スコア(独自算出の注目度): 39.88152764752553
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) is vulnerable to model poisoning attacks, in which
malicious clients corrupt the global model via sending manipulated model
updates to the server. Existing defenses mainly rely on Byzantine-robust FL
methods, which aim to learn an accurate global model even if some clients are
malicious. However, they can only resist a small number of malicious clients in
practice. It is still an open challenge how to defend against model poisoning
attacks with a large number of malicious clients. Our FLDetector addresses this
challenge via detecting malicious clients. FLDetector aims to detect and remove
the majority of the malicious clients such that a Byzantine-robust FL method
can learn an accurate global model using the remaining clients. Our key
observation is that, in model poisoning attacks, the model updates from a
client in multiple iterations are inconsistent. Therefore, FLDetector detects
malicious clients via checking their model-updates consistency. Roughly
speaking, the server predicts a client's model update in each iteration based
on its historical model updates using the Cauchy mean value theorem and L-BFGS,
and flags a client as malicious if the received model update from the client
and the predicted model update are inconsistent in multiple iterations. Our
extensive experiments on three benchmark datasets show that FLDetector can
accurately detect malicious clients in multiple state-of-the-art model
poisoning attacks. After removing the detected malicious clients, existing
Byzantine-robust FL methods can learn accurate global models.
- Abstract(参考訳): フェデレーション学習(fl)はモデル中毒攻撃に対して脆弱であり、悪意のあるクライアントは、操作されたモデル更新をサーバに送信することでグローバルモデルを破壊する。
既存の防御は主にビザンチン・ロバストflメソッドに依存しており、一部のクライアントが悪意を持っていても正確なグローバルモデルを学ぶことを目的としている。
しかし、実際には少数の悪意のあるクライアントにしか抵抗できない。
多数の悪意のあるクライアントによるモデル中毒攻撃を防御する方法は、依然としてオープンな課題である。
私たちのFLDetectorは悪意のあるクライアントを検出してこの問題に対処します。
FLDetectorは、Byzantine-robust FLメソッドが残りのクライアントを使って正確なグローバルモデルを学ぶことができるような、悪意のあるクライアントの大部分を検出し、削除することを目的としている。
私たちのキーとなる観察は、モデル中毒攻撃では、複数のイテレーションでクライアントからモデル更新が一貫性がないことです。
そのため、FLDetectorはモデルの更新一貫性をチェックして悪意のあるクライアントを検出する。
概して、サーバは、Cauchy平均値定理とL-BFGSを用いて、履歴モデル更新に基づいて、各イテレーションにおけるクライアントのモデル更新を予測し、クライアントから受信したモデル更新と予測されたモデル更新が複数のイテレーションで矛盾する場合、クライアントを悪意としてフラグする。
3つのベンチマークデータセットに対する広範な実験により、FLDetectorは複数の最先端モデル中毒攻撃において、悪意のあるクライアントを正確に検出できることが示された。
検出された悪意のあるクライアントを削除した後、既存のByzantine-robust FLメソッドは正確なグローバルモデルを学ぶことができる。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Protecting Federated Learning from Extreme Model Poisoning Attacks via Multidimensional Time Series Anomaly Detection [1.74243547444997]
FLANDERSは,大規模モデル中毒に対するFL耐性を示す新しいプレアグリゲーションフィルタである。
FLANDERSは、FLANDERSが標準およびロバストな既存のアグリゲーション手法と組み合わせることで、幅広い攻撃範囲にわたるロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T13:22:20Z) - BayBFed: Bayesian Backdoor Defense for Federated Learning [17.433543798151746]
フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
BayBFed は FL の悪意のある更新を検出するために,クライアント更新による確率分布の利用を提案する。
論文 参考訳(メタデータ) (2023-01-23T16:01:30Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。