論文の概要: A Client-level Assessment of Collaborative Backdoor Poisoning in Non-IID Federated Learning
- arxiv url: http://arxiv.org/abs/2504.12875v2
- Date: Mon, 21 Apr 2025 20:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 12:04:39.050645
- Title: A Client-level Assessment of Collaborative Backdoor Poisoning in Non-IID Federated Learning
- Title(参考訳): 非IIDフェデレーション学習における協調的バックドア中毒のクライアントレベル評価
- Authors: Phung Lai, Guanxiong Liu, NhatHai Phan, Issa Khalil, Abdallah Khreishah, Xintao Wu,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントからの分散プライベートデータを使用した協調モデルトレーニングを可能にする。
我々の研究は、クライアント間で非独立かつ同一に分散された(非IID)データから生じる新たな脆弱性を明らかにする。
CollaPois と呼ばれる新規なバックドア中毒発作を発症した。
- 参考スコア(独自算出の注目度): 14.728868104566363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative model training using decentralized private data from multiple clients. While FL has shown robustness against poisoning attacks with basic defenses, our research reveals new vulnerabilities stemming from non-independent and identically distributed (non-IID) data among clients. These vulnerabilities pose a substantial risk of model poisoning in real-world FL scenarios. To demonstrate such vulnerabilities, we develop a novel collaborative backdoor poisoning attack called CollaPois. In this attack, we distribute a single pre-trained model infected with a Trojan to a group of compromised clients. These clients then work together to produce malicious gradients, causing the FL model to consistently converge towards a low-loss region centered around the Trojan-infected model. Consequently, the impact of the Trojan is amplified, especially when the benign clients have diverse local data distributions and scattered local gradients. CollaPois stands out by achieving its goals while involving only a limited number of compromised clients, setting it apart from existing attacks. Also, CollaPois effectively avoids noticeable shifts or degradation in the FL model's performance on legitimate data samples, allowing it to operate stealthily and evade detection by advanced robust FL algorithms. Thorough theoretical analysis and experiments conducted on various benchmark datasets demonstrate the superiority of CollaPois compared to state-of-the-art backdoor attacks. Notably, CollaPois bypasses existing backdoor defenses, especially in scenarios where clients possess diverse data distributions. Moreover, the results show that CollaPois remains effective even when involving a small number of compromised clients. Notably, clients whose local data is closely aligned with compromised clients experience higher risks of backdoor infections.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントからの分散プライベートデータを使用した協調モデルトレーニングを可能にする。
FLは、基本的な防御による毒殺攻撃に対して堅牢性を示したが、我々の研究は、クライアント間で非独立で同一に分散された(IIDではない)データから生じる新たな脆弱性を明らかにした。
これらの脆弱性は、現実世界のFLシナリオにおいて、モデル中毒のかなりのリスクをもたらす。
このような脆弱性を実証するため,CollaPoisと呼ばれる新しいバックドア中毒攻撃を開発した。
この攻撃では、トロイの木馬に感染した1つの事前訓練されたモデルを、妥協されたクライアントのグループに配布する。
これらのクライアントが協力して悪意のある勾配を生成することで、FLモデルはトロヤ群感染モデルを中心とした低損失領域に一貫して収束する。
その結果、トロイの木馬の影響は増幅され、特に良性クライアントが多様な局所データ分布と散在する局所勾配を持つ場合である。
CollaPoisが目指すのは、目標を達成すると同時に、侵入されたクライアントの数が限られており、既存の攻撃とは切り離されていることだ。
また、CollaPoisは、正統なデータサンプル上でのFLモデルの性能の顕著な変化や劣化を効果的に回避し、高度な堅牢なFLアルゴリズムによって密かに動作し、検出を回避することができる。
さまざまなベンチマークデータセットで行われた詳細な理論的分析と実験は、最先端のバックドア攻撃と比較して、CollaPoisの優位性を示している。
特に、クライアントが多様なデータ分散を持つシナリオでは、CollaPoisは既存のバックドアディフェンスをバイパスする。
さらに、少数の妥協されたクライアントを巻き込んだ場合でも、CollaPoisは依然として有効であることを示す。
特に、データが漏洩したクライアントと密に一致しているクライアントは、バックドア感染のリスクが高い。
関連論文リスト
- PPFPL: Cross-silo Privacy-preserving Federated Prototype Learning Against Data Poisoning Attacks on Non-IID Data [24.84385720209427]
プライバシ保護 フェデレーション学習により、複数のクライアントが、隠れたモデル更新を送信することによって、ディープラーニングモデルを協調的にトレーニングできる。
既存のソリューションは、有毒な非IIDデータにおけるクロスサイロPPFLの性能向上に苦慮している。
本稿では,PFPL という名称のプライバシ保存型フェデレーション型プロトタイプ学習フレームワークを提案し,このフレームワークにより,有毒な非IIDデータにおけるクロスサイロFLの性能が向上する。
論文 参考訳(メタデータ) (2025-04-04T05:05:24Z) - FedNIA: Noise-Induced Activation Analysis for Mitigating Data Poisoning in FL [6.144680854063938]
Federated Noise-induced Activation Analysis (FedNIA)は、敵の顧客を特定し排除するための新しい防御フレームワークである。
FedNIAはランダムノイズ入力を注入し、クライアントモデルの階層的なアクティベーションパターンを分析する。
サンプル中毒、ラベルのフリップ、バックドアなど、さまざまなタイプの攻撃に対して防御することができる。
論文 参考訳(メタデータ) (2025-02-23T01:16:01Z) - FedCAP: Robust Federated Learning via Customized Aggregation and Personalization [13.17735010891312]
フェデレートラーニング(FL)は、様々なプライバシー保護シナリオに適用されている。
我々はデータ不均一性とビザンチン攻撃に対する堅牢なFLフレームワークであるFedCAPを提案する。
我々は,FedCAPがいくつかの非IID環境において良好に機能し,連続的な毒殺攻撃下で強い堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T23:01:22Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。