論文の概要: MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients
- arxiv url: http://arxiv.org/abs/2203.08669v1
- Date: Wed, 16 Mar 2022 14:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 16:00:59.688973
- Title: MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients
- Title(参考訳): MPAF: フェイククライアントに基づくフェデレーション学習に対するモデル中毒攻撃
- Authors: Xiaoyu Cao and Neil Zhenqiang Gong
- Abstract要約: 本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
- 参考スコア(独自算出の注目度): 51.973224448076614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing model poisoning attacks to federated learning assume that an
attacker has access to a large fraction of compromised genuine clients.
However, such assumption is not realistic in production federated learning
systems that involve millions of clients. In this work, we propose the first
Model Poisoning Attack based on Fake clients called MPAF. Specifically, we
assume the attacker injects fake clients to a federated learning system and
sends carefully crafted fake local model updates to the cloud server during
training, such that the learnt global model has low accuracy for many
indiscriminate test inputs. Towards this goal, our attack drags the global
model towards an attacker-chosen base model that has low accuracy.
Specifically, in each round of federated learning, the fake clients craft fake
local model updates that point to the base model and scale them up to amplify
their impact before sending them to the cloud server. Our experiments show that
MPAF can significantly decrease the test accuracy of the global model, even if
classical defenses and norm clipping are adopted, highlighting the need for
more advanced defenses.
- Abstract(参考訳): フェデレーション学習に対する既存のモデル中毒攻撃は、攻撃者が漏洩した本物のクライアントの大部分にアクセスできると仮定する。
しかし、このような仮定は、数百万のクライアントを含む本番連帯学習システムでは現実的ではない。
そこで本研究では,mpafと呼ばれる偽のクライアントに基づく最初のモデル中毒攻撃を提案する。
具体的には、攻撃者がフェデレートされた学習システムに偽のクライアントを注入し、トレーニング中に慎重に作られた偽のローカルモデル更新をクラウドサーバに送ると仮定する。
この目標に向けて,我々の攻撃は,精度の低い攻撃長ベースモデルに向けてグローバルモデルをドラッグする。
具体的には、フェデレーション学習の各ラウンドにおいて、フェイククライアントは、ベースモデルを指す偽のローカルモデル更新を作成し、それらを拡大して、クラウドサーバに送信する前に影響を増幅する。
実験の結果,MPAFは従来の防御法や標準的なクリッピング法を採用しても,グローバルモデルの試験精度を著しく低下させ,より高度な防御の必要性を浮き彫りにした。
関連論文リスト
- Model Hijacking Attack in Federated Learning [19.304332176437363]
HijackFLは、フェデレートラーニングにおけるグローバルモデルに対する、第一級のハイジャック攻撃である。
それは、サーバや良心的なクライアントの通知なしに、グローバルモデルが元のタスクとは異なるタスクを実行するように強制することを目的としています。
4つのベンチマークデータセットと3つの人気のあるモデルについて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-04T20:02:07Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - FLDetector: Defending Federated Learning Against Model Poisoning Attacks
via Detecting Malicious Clients [39.88152764752553]
フェデレート・ラーニング(Federated Learning, FL)は、モデル中毒攻撃に対して脆弱である。
悪意のあるクライアントは、操作されたモデルの更新をサーバに送信することで、グローバルモデルを破壊しました。
私たちのFLDetectorは、悪意のあるクライアントの大部分を検出し、削除することを目的としています。
論文 参考訳(メタデータ) (2022-07-19T11:44:24Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - TESSERACT: Gradient Flip Score to Secure Federated Learning Against
Model Poisoning Attacks [25.549815759093068]
フェデレート学習は、モデル中毒攻撃に対して脆弱である。
これは、悪意のあるクライアントが、グローバルなモデルを不正確なものにするためです。
我々は、この指向的偏差攻撃に対する防御であるTESSERACTを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:03:29Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。