論文の概要: PoisonedFL: Model Poisoning Attacks to Federated Learning via Multi-Round Consistency
- arxiv url: http://arxiv.org/abs/2404.15611v1
- Date: Wed, 24 Apr 2024 03:02:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 14:43:50.830453
- Title: PoisonedFL: Model Poisoning Attacks to Federated Learning via Multi-Round Consistency
- Title(参考訳): PoisonedFL:マルチラウンド一貫性によるフェデレーション学習に対するモデルポジショニング攻撃
- Authors: Yueqi Xie, Minghong Fang, Neil Zhenqiang Gong,
- Abstract要約: 本稿では,悪意のあるクライアントのモデル更新間で複数ラウンドの一貫性を実現するPoisonedFLを提案する。
5つのベンチマークデータセットに対する実証的な評価は、PoisonedFLが8つの最先端の防御を破り、既存の7つのモデル中毒攻撃を上回っていることを示している。
- 参考スコア(独自算出の注目度): 42.132028389365075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model poisoning attacks are critical security threats to Federated Learning (FL). Existing model poisoning attacks suffer from two key limitations: 1) they achieve suboptimal effectiveness when defenses are deployed, and/or 2) they require knowledge of the model updates or local training data on genuine clients. In this work, we make a key observation that their suboptimal effectiveness arises from only leveraging model-update consistency among malicious clients within individual training rounds, making the attack effect self-cancel across training rounds. In light of this observation, we propose PoisonedFL, which enforces multi-round consistency among the malicious clients' model updates while not requiring any knowledge about the genuine clients. Our empirical evaluation on five benchmark datasets shows that PoisonedFL breaks eight state-of-the-art defenses and outperforms seven existing model poisoning attacks. Moreover, we also explore new defenses that are tailored to PoisonedFL, but our results show that we can still adapt PoisonedFL to break them. Our study shows that FL systems are considerably less robust than previously thought, underlining the urgency for the development of new defense mechanisms.
- Abstract(参考訳): モデル中毒は、フェデレート・ラーニング(FL)にとって重要なセキュリティ上の脅威である。
既存のモデル中毒攻撃には2つの重要な制限がある。
1)防衛が配備されたとき、及び/又はその際の準最適効果を達成する。
2) モデル更新や実際のクライアントでのローカルトレーニングデータに関する知識が必要です。
本研究では,個々のトレーニングラウンドにおいて,悪意のあるクライアント間のモデル更新整合性のみを活用することによって,攻撃効果を訓練ラウンド間で自己キャッシュ化することによって,それらの最適効果が生じることを重要視する。
そこで本研究では,悪意のあるクライアントのモデル更新において,実際のクライアントに関する知識を必要とせず,複数ラウンドの一貫性を実現するPoisonedFLを提案する。
5つのベンチマークデータセットに対する実証的な評価は、PoisonedFLが8つの最先端の防御を破り、既存の7つのモデル中毒攻撃を上回っていることを示している。
さらに,PoisonedFLに合わせた新たな防御策も検討していますが,この結果から,PoisonedFLを破るためにも適用できることが分かりました。
本研究は、FL系が従来考えられていたよりもかなり堅牢であることを示し、新しい防御機構の開発の緊急性を明らかにした。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on
Federated Learning [32.88150721857589]
近年の研究では、フェデレート・ラーニング(FL)は、侵害されたクライアントによる攻撃に弱いことが示されている。
これらの研究はいくつかの非現実的な仮定を導いており、何らかの誤解を招く結論に達している。
本研究は,実用FL環境下での毒殺攻撃に関する最初の批判的分析を行う。
論文 参考訳(メタデータ) (2021-08-23T15:29:45Z) - Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation [7.979659145328856]
Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
論文 参考訳(メタデータ) (2021-01-24T20:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。