論文の概要: A Learning-Based Attack Framework to Break SOTA Poisoning Defenses in Federated Learning
- arxiv url: http://arxiv.org/abs/2407.15267v1
- Date: Sun, 21 Jul 2024 21:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 16:40:17.720773
- Title: A Learning-Based Attack Framework to Break SOTA Poisoning Defenses in Federated Learning
- Title(参考訳): フェデレーション学習におけるSOTA攻撃防御を破る学習ベースアタックフレームワーク
- Authors: Yuxin Yang, Qiang Li, Chenfei Nie, Yuan Hong, Meng Pang, Binghui Wang,
- Abstract要約: Federated Learning(FL)は、データプライバシを保護する新しいクライアントサーバ分散学習フレームワークである。
近年の研究では、FLは毒殺攻撃に弱いことが示されている。
堅牢なアグリゲータ(AGR)を備えた多くの防衛策がこの問題を軽減するために提案されているが、いずれも先進的な攻撃によって破壊されている。
本稿では,これらの新規なロバストなAGRも,慎重に設計された毒殺攻撃に対して脆弱であることを示す。
- 参考スコア(独自算出の注目度): 27.512343847036018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a novel client-server distributed learning framework that can protect data privacy. However, recent works show that FL is vulnerable to poisoning attacks. Many defenses with robust aggregators (AGRs) are proposed to mitigate the issue, but they are all broken by advanced attacks. Very recently, some renewed robust AGRs are designed, typically with novel clipping or/and filtering strate-gies, and they show promising defense performance against the advanced poisoning attacks. In this paper, we show that these novel robust AGRs are also vulnerable to carefully designed poisoning attacks. Specifically, we observe that breaking these robust AGRs reduces to bypassing the clipping or/and filtering of malicious clients, and propose an optimization-based attack framework to leverage this observation. Under the framework, we then design the customized attack against each robust AGR. Extensive experiments on multiple datasets and threat models verify our proposed optimization-based attack can break the SOTA AGRs. We hence call for novel defenses against poisoning attacks to FL. Code is available at: https://github.com/Yuxin104/ BreakSTOAPoisoningDefenses.
- Abstract(参考訳): Federated Learning(FL)は、データプライバシを保護する新しいクライアントサーバ分散学習フレームワークである。
しかし最近の研究では、FLは毒殺攻撃に弱いことが示されている。
堅牢なアグリゲータ(AGR)を備えた多くの防衛策がこの問題を軽減するために提案されているが、いずれも先進的な攻撃によって破壊されている。
最近になって、いくつかの新しい堅牢なAGRが設計され、通常、斬新なクリッピングや濾過ストラテジーで設計され、先進的な毒殺攻撃に対する防衛性能が期待できる。
本稿では,これらの新規なロバストなAGRも,慎重に設計された毒殺攻撃に対して脆弱であることを示す。
具体的には、これらの堅牢なAGRを壊すことで、悪意のあるクライアントの切断やフィルタリングを回避し、この観察を活用するための最適化ベースのアタックフレームワークを提案する。
フレームワークでは、それぞれのロバストなAGRに対してカスタマイズされた攻撃を設計します。
複数のデータセットと脅威モデルに対する大規模な実験により、提案した最適化ベースの攻撃がSOTA AGRを壊す可能性がある。
そこで我々はFLに対する毒殺攻撃に対する新たな防御を要請した。
コードは、https://github.com/Yuxin104/ BreakSTOAPoisoningDefenses.comで入手できる。
関連論文リスト
- Adversarially Guided Stateful Defense Against Backdoor Attacks in Federated Deep Learning [23.469636829106317]
既存のディフェンスクラスタは、クライアントから更新を送信し、アグリゲーションに最適なクラスタを選択する。
現実的なFL設定では,SOTA(State-of-the-art Defenses)はFLのバックドア攻撃に対して良好に対処する。
本稿では,Deep Neural Networks (DNN) に対するバックドア攻撃に対するAdversarially Guided Stateful Defense (AGSD) を提案する。
論文 参考訳(メタデータ) (2024-10-15T02:45:19Z) - CleanerCLIP: Fine-grained Counterfactual Semantic Augmentation for Backdoor Defense in Contrastive Learning [53.766434746801366]
バックドアトリガの特徴的接続を遮断するための細粒な textbfText textbfAlignment textbfCleaner (TA-Cleaner) を提案する。
TA-Cleanerは、ファインタニングベースの防御技術の中で最先端の防御性を達成している。
論文 参考訳(メタデータ) (2024-09-26T07:35:23Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - A Data-Driven Defense against Edge-case Model Poisoning Attacks on Federated Learning [13.89043799280729]
本稿では,フェデレートラーニングシステムにおけるモデル中毒に対する効果的な防御法を提案する。
DataDefenseは、防衛データセットの各例を毒または清潔とマークする有毒データ検出モデルを学ぶ。
標準的な攻撃設定では攻撃成功率を少なくとも40%、いくつかの設定では80%以上削減することができる。
論文 参考訳(メタデータ) (2023-05-03T10:20:26Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。