論文の概要: A GAN-Based Data Poisoning Attack Against Federated Learning Systems and Its Countermeasure
- arxiv url: http://arxiv.org/abs/2405.11440v2
- Date: Tue, 21 May 2024 12:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 15:26:53.262743
- Title: A GAN-Based Data Poisoning Attack Against Federated Learning Systems and Its Countermeasure
- Title(参考訳): GANによるフェデレーション学習システムに対するデータ中毒攻撃とその対策
- Authors: Wei Sun, Bo Gao, Ke Xiong, Yuwei Wang,
- Abstract要約: 本稿では,VagGANという新たなデータ中毒モデルを提案する。
VagueGANは、GAN(Generative Adversarial Network)の変異を利用して、一見正当であるがノイズの多い有毒なデータを生成することができる。
我々の攻撃方法は一般によりステルス性が高く、複雑性の低いFL性能の劣化に有効である。
- 参考スコア(独自算出の注目度): 17.975736855580674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a distributed machine learning paradigm, federated learning (FL) is collaboratively carried out on privately owned datasets but without direct data access. Although the original intention is to allay data privacy concerns, "available but not visible" data in FL potentially brings new security threats, particularly poisoning attacks that target such "not visible" local data. Initial attempts have been made to conduct data poisoning attacks against FL systems, but cannot be fully successful due to their high chance of causing statistical anomalies. To unleash the potential for truly "invisible" attacks and build a more deterrent threat model, in this paper, a new data poisoning attack model named VagueGAN is proposed, which can generate seemingly legitimate but noisy poisoned data by untraditionally taking advantage of generative adversarial network (GAN) variants. Capable of manipulating the quality of poisoned data on demand, VagueGAN enables to trade-off attack effectiveness and stealthiness. Furthermore, a cost-effective countermeasure named Model Consistency-Based Defense (MCD) is proposed to identify GAN-poisoned data or models after finding out the consistency of GAN outputs. Extensive experiments on multiple datasets indicate that our attack method is generally much more stealthy as well as more effective in degrading FL performance with low complexity. Our defense method is also shown to be more competent in identifying GAN-poisoned data or models. The source codes are publicly available at \href{https://github.com/SSssWEIssSS/VagueGAN-Data-Poisoning-Attack-and-Its-Countermeasure}{https://github.com/SSssWEIssSS/VagueGAN-Data-Poisoning-Attack-and-Its-Countermeasure}.
- Abstract(参考訳): 分散機械学習パラダイムとして、フェデレートラーニング(FL)は、個人所有のデータセット上で協調的に実行されるが、直接的なデータアクセスは行われない。
元々の意図は、データのプライバシに関する懸念を緩和することにあるが、FL内の"可利用だが見えない"データは、新たなセキュリティ脅威をもたらす可能性がある。
FLシステムに対するデータ中毒攻撃を最初に試みたが、統計異常を引き起こす可能性が高く、完全には成功しない。
真に「見えない」攻撃の可能性を解き、より抑止的な脅威モデルを構築するために、VagGANと呼ばれる新しいデータ中毒モデルが提案されている。
VagueGANは、需要に応じて有毒データの品質を操作できるため、攻撃の有効性とステルスネスのトレードオフを可能にする。
さらに,GAN出力の整合性を見出した上で,GANを注入したデータやモデルを特定するために,MCD(Model Consistency-Based Defense)という費用対効果が提案されている。
複数のデータセットに対する大規模な実験により、我々の攻撃方法は概してステルス性が高く、複雑性の低いFL性能の劣化に有効であることが示唆された。
また,本手法は,GAN中毒データやモデルを特定する上で,より有能であることを示す。
ソースコードは \href{https://github.com/SSssWEIssSS/VagueGAN-Data-Poisoning-Attack-and-Its-Countermeasure}{https://github.com/SSssWEIssSS/VagueGAN-Data-Poisoning-Attack-and-Its-Countermeasure} で公開されている。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Try to Avoid Attacks: A Federated Data Sanitization Defense for
Healthcare IoMT Systems [4.024567343465081]
IoMTの分布は、データ中毒攻撃から保護されるリスクがある。
処方されたデータは、医療データを偽造することによって製造することができる。
本稿では,フェデレーテッドデータ衛生防衛(Federated Data Sanitization Defense)について紹介する。
論文 参考訳(メタデータ) (2022-11-03T05:21:39Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。