論文の概要: G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering
- arxiv url: http://arxiv.org/abs/2306.04984v1
- Date: Thu, 8 Jun 2023 07:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 15:54:08.286842
- Title: G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering
- Title(参考訳): G$^2$uardFL: 分散クライアントグラフクラスタリングによるバックドア攻撃に対するフェデレーション学習の保護
- Authors: Hao Yu, Chuan Ma, Meng Liu, Xinwang Liu, Zhe Liu, Ming Ding
- Abstract要約: フェデレーテッド・ラーニング(FL)は、各ローカルデータを交換することなく、クライアントに集団モデルトレーニングを行う権限を与える。
FLは、攻撃者が悪意のあるクライアントを侵害するバックドア攻撃に弱いままである。
G$2$uardFLは、悪意のあるクライアントの検出を属性付きグラフクラスタリング問題として再設計する保護フレームワークである。
- 参考スコア(独自算出の注目度): 52.587343832173964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a collaborative paradigm, Federated Learning (FL) empowers clients to
engage in collective model training without exchanging their respective local
data. Nevertheless, FL remains vulnerable to backdoor attacks in which an
attacker compromises malicious clients, and injects poisoned model weights into
the aggregation process to yield attacker-chosen predictions for particular
samples. Existing countermeasures, mainly based on anomaly detection, may
erroneously reject legitimate weights while accepting malicious ones, which is
due to inadequacies in quantifying client model similarities. Other defense
mechanisms prove effective exclusively when confronted with a restricted number
of malicious clients, e.g., less than 10%. To address these vulnerabilities, we
present G$^2$uardFL, a protective framework that reframes the detection of
malicious clients as an attributed graph clustering problem, thereby
safeguarding FL systems. This framework employs a client graph clustering
technique to identify malicious clients and incorporates an adaptive method to
amplify the disparity between the aggregated model and poisoned client models,
thereby eliminating previously embedded backdoors. A theoretical analysis of
convergence is also performed to demonstrate that the global model closely
approximates the model untouched by any backdoor. Through empirical evaluation
compared to cutting-edge defenses and against various backdoor attacks, our
experimental results indicate that G$^2$uardFL considerably undermines the
effectiveness of backdoor attacks while maintaining a negligible impact on the
benign sample performance.
- Abstract(参考訳): 協調的なパラダイムとして、フェデレーテッド・ラーニング(FL)は、各ローカルデータを交換することなく、クライアントに集合モデルトレーニングを行う権限を与える。
それでもFLは、悪意のあるクライアントを攻撃者が侵入するバックドア攻撃に弱いままであり、特定のサンプルに対してアタッカー・チョーゼン予測を生成するために、有害なモデル重みを集約プロセスに注入する。
既存の対策は、主に異常検出に基づくもので、クライアントモデルの類似性を定量化できないため、悪意のあるものを受け入れながら、誤って正当な重みを拒絶する可能性がある。
他の防御機構は、10%未満の悪意のあるクライアントが制限された場合にのみ有効である。
このような脆弱性に対処するため,我々は,悪意のあるクライアントの検出を正当なグラフクラスタリング問題として再フレーム化し,flシステムを保護する保護フレームワークであるg$^2$uardflを提案する。
このフレームワークは、悪意のあるクライアントを識別するためにクライアントグラフクラスタリング技術を使用し、アダプティブメソッドを組み込んで、集約されたモデルと有毒なクライアントモデルとの格差を増幅する。
収束の理論的解析は、大域モデルがどんなバックドアにも触れられないモデルに密接に近似していることを証明するためにも行われる。
最先端の防御や様々なバックドア攻撃に対する経験的評価から,g$^2$uardflは有意なサンプル性能への影響を維持しつつバックドア攻撃の有効性を著しく低下させることが示唆された。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Resilience in Online Federated Learning: Mitigating Model-Poisoning Attacks via Partial Sharing [6.957420925496431]
フェデレートラーニング(FL)は、プライバシを損なうことなく、分散データ上で機械学習モデルをトレーニングすることを可能にする。
FLは、悪意のあるクライアントがローカルモデルを改ざんしてグローバルモデルを操作するような、モデル中毒攻撃に弱い。
本研究では,この攻撃に対する部分共有オンラインFL(PSO-Fed)アルゴリズムのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-03-19T19:15:38Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data [14.160225621129076]
敵はデータセットを操作でき、フェデレートされたバックドア攻撃のトリガーを注入することでモデルをアップロードできる。
既存の防衛戦略では、特定の攻撃者モデルと限定的な攻撃者モデルと、緩和のみを注入する十分な量のノイズを考慮に入れている。
バックドアの除去を確実にするためのフレキシブル・フェデレート・バックドア・ディフェンス・フレームワーク(Fedward)を紹介した。
論文 参考訳(メタデータ) (2023-07-01T15:01:03Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。