論文の概要: G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering
- arxiv url: http://arxiv.org/abs/2306.04984v2
- Date: Fri, 8 Dec 2023 02:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 18:52:27.430448
- Title: G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering
- Title(参考訳): G$^2$uardFL: 分散クライアントグラフクラスタリングによるバックドア攻撃に対するフェデレーション学習の保護
- Authors: Hao Yu, Chuan Ma, Meng Liu, Tianyu Du, Ming Ding, Tao Xiang, Shouling
Ji, Xinwang Liu
- Abstract要約: Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
- 参考スコア(独自算出の注目度): 116.4277292854053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) offers collaborative model training without data
sharing but is vulnerable to backdoor attacks, where poisoned model weights
lead to compromised system integrity. Existing countermeasures, primarily based
on anomaly detection, are prone to erroneous rejections of normal weights while
accepting poisoned ones, largely due to shortcomings in quantifying
similarities among client models. Furthermore, other defenses demonstrate
effectiveness only when dealing with a limited number of malicious clients,
typically fewer than 10%. To alleviate these vulnerabilities, we present
G$^2$uardFL, a protective framework that reinterprets the identification of
malicious clients as an attributed graph clustering problem, thus safeguarding
FL systems. Specifically, this framework employs a client graph clustering
approach to identify malicious clients and integrates an adaptive mechanism to
amplify the discrepancy between the aggregated model and the poisoned ones,
effectively eliminating embedded backdoors. We also conduct a theoretical
analysis of convergence to confirm that G$^2$uardFL does not affect the
convergence of FL systems. Through empirical evaluation, comparing G$^2$uardFL
with cutting-edge defenses, such as FLAME (USENIX Security 2022) [28] and
DeepSight (NDSS 2022) [36], against various backdoor attacks including 3DFed
(SP 2023) [20], our results demonstrate its significant effectiveness in
mitigating backdoor attacks while having a negligible impact on the aggregated
model's performance on benign samples (i.e., the primary task performance). For
instance, in an FL system with 25% malicious clients, G$^2$uardFL reduces the
attack success rate to 10.61%, while maintaining a primary task performance of
73.05% on the CIFAR-10 dataset. This surpasses the performance of the
best-performing baseline, which merely achieves a primary task performance of
19.54%.
- Abstract(参考訳): Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供するが、有害なモデル重みがシステムの整合性を損なうバックドア攻撃に弱い。
既存の対策は、主に異常検出に基づくが、主にクライアントモデル間の類似点の定量化に欠点があるため、通常の重量を誤って拒否する傾向にある。
さらに、他の防御策は、限られた数の悪意のあるクライアントを扱う場合にのみ効果を示し、典型的には10%未満である。
これらの脆弱性を軽減するため、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈し、FLシステムを保護する保護フレームワークであるG$^2$uardFLを提案する。
具体的には、悪意のあるクライアントを特定するためにクライアントグラフクラスタリングアプローチを採用し、集約されたモデルと有毒なクライアントとの相違を増幅する適応的なメカニズムを統合し、組み込みバックドアを効果的に排除する。
また、G$^2$uardFL が FL 系の収束に影響を与えないことを確認するために収束の理論解析を行う。
3dfed (sp 2023) [20] を含む様々なバックドア攻撃に対して, フレイム (usenix security 2022) [28] やdeepsight (ndss 2022) [36] などの最先端防御と g$^2$uardfl を比較した経験的評価を行った。
例えば、25%の悪意のあるクライアントを持つFLシステムでは、G$^2$uardFLは攻撃成功率を10.61%に削減し、CIFAR-10データセットでは73.05%のプライマリタスク性能を維持している。
これは最もパフォーマンスの高いベースラインのパフォーマンスを上回っており、プライマリタスクのパフォーマンスは19.54%である。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Resilience in Online Federated Learning: Mitigating Model-Poisoning Attacks via Partial Sharing [6.957420925496431]
フェデレートラーニング(FL)は、プライバシを損なうことなく、分散データ上で機械学習モデルをトレーニングすることを可能にする。
FLは、悪意のあるクライアントがローカルモデルを改ざんしてグローバルモデルを操作するような、モデル中毒攻撃に弱い。
本研究では,この攻撃に対する部分共有オンラインFL(PSO-Fed)アルゴリズムのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-03-19T19:15:38Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data [14.160225621129076]
敵はデータセットを操作でき、フェデレートされたバックドア攻撃のトリガーを注入することでモデルをアップロードできる。
既存の防衛戦略では、特定の攻撃者モデルと限定的な攻撃者モデルと、緩和のみを注入する十分な量のノイズを考慮に入れている。
バックドアの除去を確実にするためのフレキシブル・フェデレート・バックドア・ディフェンス・フレームワーク(Fedward)を紹介した。
論文 参考訳(メタデータ) (2023-07-01T15:01:03Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。