論文の概要: Tracing Back the Malicious Clients in Poisoning Attacks to Federated Learning
- arxiv url: http://arxiv.org/abs/2407.07221v1
- Date: Tue, 9 Jul 2024 20:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 18:41:00.402613
- Title: Tracing Back the Malicious Clients in Poisoning Attacks to Federated Learning
- Title(参考訳): フェデレーション・ラーニングの攻撃に対する悪質なクライアントの追跡
- Authors: Yuqi Jia, Minghong Fang, Hongbin Liu, Jinghuai Zhang, Neil Zhenqiang Gong,
- Abstract要約: 毒殺攻撃は、連合学習の訓練段階を損なう。
FLForensics, FLForensics, the first poison-forensics method。
FLForensicsは、良質なクライアントと悪質なクライアントを正確に区別できることを示す。
- 参考スコア(独自算出の注目度): 37.44282882698999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Poisoning attacks compromise the training phase of federated learning (FL) such that the learned global model misclassifies attacker-chosen inputs called target inputs. Existing defenses mainly focus on protecting the training phase of FL such that the learnt global model is poison free. However, these defenses often achieve limited effectiveness when the clients' local training data is highly non-iid or the number of malicious clients is large, as confirmed in our experiments. In this work, we propose FLForensics, the first poison-forensics method for FL. FLForensics complements existing training-phase defenses. In particular, when training-phase defenses fail and a poisoned global model is deployed, FLForensics aims to trace back the malicious clients that performed the poisoning attack after a misclassified target input is identified. We theoretically show that FLForensics can accurately distinguish between benign and malicious clients under a formal definition of poisoning attack. Moreover, we empirically show the effectiveness of FLForensics at tracing back both existing and adaptive poisoning attacks on five benchmark datasets.
- Abstract(参考訳): 中毒攻撃は、学習したグローバルモデルがターゲット入力と呼ばれるアタッカー・チョセン入力を誤分類するように、連合学習(FL)の訓練フェーズを損なう。
既存の防衛は、学習したグローバルモデルが無毒であるように、FLのトレーニングフェーズの保護に重点を置いている。
しかし,本実験で確認したように,クライアントのローカルトレーニングデータが極めて非IDである場合や,悪意のあるクライアントの数が多ければ,これらの防御は限られた効果が得られることが多い。
本研究はFLForensics, FLForensics, the first poison-forensics methodである。
FLForensicsは既存の訓練段階の防衛を補完する。
特に、訓練段階の防衛が失敗し、有毒なグローバルモデルが展開された場合、FLForensicsは、誤分類されたターゲット入力が特定された後、毒攻撃を行った悪意のあるクライアントを追跡することを目的としている。
FLForensicsは、毒殺攻撃の正式な定義の下で、良性クライアントと悪意クライアントを正確に区別できることを理論的に示す。
さらに, FLForensicsが5つのベンチマークデータセットに対して, 既存および適応的な中毒攻撃の追跡に有効であることを実証的に示す。
関連論文リスト
- Model Poisoning Attacks to Federated Learning via Multi-Round Consistency [42.132028389365075]
本稿では,悪意のあるクライアントのモデル更新間で複数ラウンドの一貫性を実現するPoisonedFLを提案する。
5つのベンチマークデータセットに対する実証的な評価は、PoisonedFLが8つの最先端の防御を破り、既存の7つのモデル中毒攻撃を上回っていることを示している。
論文 参考訳(メタデータ) (2024-04-24T03:02:21Z) - Securing NextG Systems against Poisoning Attacks on Federated Learning:
A Game-Theoretic Solution [9.800359613640763]
本稿では,フェデレートラーニング(FL)システムにおける毒性攻撃と防御相互作用について検討する。
FLは、クライアントがデータサンプルを交換する必要なしに、グローバルモデルを集合的にトレーニングする。
悪意のあるクライアントの存在は、偽造されたローカルモデル交換を通じてグローバルモデルを操作するためのトレーニングデータを汚染するリスクをもたらす。
論文 参考訳(メタデータ) (2023-12-28T17:52:21Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Provable Defense Against Delusive Poisoning [64.69220849669948]
本研究は, 対人訓練が妄想性中毒に対する防御法であることを示す。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
論文 参考訳(メタデータ) (2021-02-09T09:19:47Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Data Poisoning Attacks Against Federated Learning Systems [8.361127872250371]
Federated Learning(FL)は、大規模ディープニューラルネットワークの分散トレーニングのための新興パラダイムである。
本研究は, 参加者の悪意あるサブセットが世界モデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討した。
我々は、FLの悪意ある参加者を識別し、毒殺を回避できる防衛戦略を提案する。
論文 参考訳(メタデータ) (2020-07-16T16:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。