論文の概要: SoK: Benchmarking Poisoning Attacks and Defenses in Federated Learning
- arxiv url: http://arxiv.org/abs/2502.03801v1
- Date: Thu, 06 Feb 2025 06:05:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:17.572406
- Title: SoK: Benchmarking Poisoning Attacks and Defenses in Federated Learning
- Title(参考訳): SoK: フェデレーション学習における攻撃と防御のベンチマーク
- Authors: Heyi Zhang, Yule Liu, Xinlei He, Jun Wu, Tianshuo Cong, Xinyi Huang,
- Abstract要約: フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にするが、その分散された性質は、それをクライアント側データ中毒攻撃(DPA)とモデル中毒攻撃(MPAs)に公開する。
本稿では、DPAとMPAに対する防御を統一したベンチマークと分析し、これら2つの類似しているがわずかに異なるドメインの区別を明らかにすることを目的とする。
- 参考スコア(独自算出の注目度): 21.73177249075515
- License:
- Abstract: Federated learning (FL) enables collaborative model training while preserving data privacy, but its decentralized nature exposes it to client-side data poisoning attacks (DPAs) and model poisoning attacks (MPAs) that degrade global model performance. While numerous proposed defenses claim substantial effectiveness, their evaluation is typically done in isolation with limited attack strategies, raising concerns about their validity. Additionally, existing studies overlook the mutual effectiveness of defenses against both DPAs and MPAs, causing fragmentation in this field. This paper aims to provide a unified benchmark and analysis of defenses against DPAs and MPAs, clarifying the distinction between these two similar but slightly distinct domains. We present a systematic taxonomy of poisoning attacks and defense strategies, outlining their design, strengths, and limitations. Then, a unified comparative evaluation across FL algorithms and data heterogeneity is conducted to validate their individual and mutual effectiveness and derive key insights for design principles and future research. Along with the analysis, we frame our work to a unified benchmark, FLPoison, with high modularity and scalability to evaluate 15 representative poisoning attacks and 17 defense strategies, facilitating future research in this domain. Code is available at https://github.com/vio1etus/FLPoison.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを保ちながら協調的なモデルトレーニングを可能にするが、その分散された性質は、グローバルモデルのパフォーマンスを低下させるクライアント側データ中毒攻撃(DPA)とモデル中毒攻撃(MPAs)にそれを露呈する。
提案された多くの防衛は、実質的な効果を主張するが、その評価は、通常、限定的な攻撃戦略で孤立して行われ、その妥当性に関する懸念を提起する。
さらに、既存の研究は、DPAとMPAの双方に対する防御の相互効果を見落とし、この分野における断片化を引き起こしている。
本稿では、DPAとMPAに対する防御を統一したベンチマークと分析し、これら2つの類似しているがわずかに異なるドメインの区別を明らかにすることを目的とする。
毒殺攻撃と防衛戦略を体系的に分類し, その設計, 強度, 限界を概説する。
次に、FLアルゴリズムとデータ不均一性に関する統一的な比較評価を行い、それらの個人的および相互の有効性を検証するとともに、設計原則と将来の研究における重要な洞察を導き出す。
この分析とともに、我々は15の代表的な毒殺攻撃と17の防衛戦略を評価するために、高いモジュール化とスケーラビリティを備えた統一ベンチマークFLPoisonに取り組み、この領域における将来の研究を促進する。
コードはhttps://github.com/vio1etus/FLPoison.comで入手できる。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Leveraging MTD to Mitigate Poisoning Attacks in Decentralized FL with Non-IID Data [9.715501137911552]
本稿では,DFLモデルのロバスト性を高めるため,移動目標防衛(MTD)アプローチを用いたフレームワークを提案する。
この枠組みはDFLシステムの攻撃面を継続的に修正することにより、効果的に中毒攻撃を緩和することを目的としている。
論文 参考訳(メタデータ) (2024-09-28T10:09:37Z) - Privacy Evaluation Benchmarks for NLP Models [16.158384185081932]
NLP分野におけるプライバシ攻撃と防衛評価のベンチマークを示す。
このベンチマークは、さまざまなモデル、データセット、プロトコルをサポートし、攻撃と防御戦略の包括的な評価のための標準化されたモジュールをサポートする。
プライバシ攻撃のための連鎖したフレームワークを提案する。複数の攻撃をチェーンして、より高いレベルの攻撃目標を達成する。
論文 参考訳(メタデータ) (2024-09-24T08:41:26Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。