論文の概要: Partner in Crime: Boosting Targeted Poisoning Attacks against Federated Learning
- arxiv url: http://arxiv.org/abs/2407.09958v1
- Date: Sat, 13 Jul 2024 17:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:08:02.900283
- Title: Partner in Crime: Boosting Targeted Poisoning Attacks against Federated Learning
- Title(参考訳): 犯罪のパートナー:フェデレート・ラーニングへの攻撃を狙う
- Authors: Shihua Sun, Shridatt Sugrim, Angelos Stavrou, Haining Wang,
- Abstract要約: フェデレートラーニング(FL)は、ソースクラスからターゲットクラスに特に誤分類を引き起こすことを目的とした、標的となる中毒攻撃に対する脆弱性を公開する。
本稿では,BOTPA (Boost Targeted Poisoning Attacks to FL) の一般向け事前訓練ステージアプローチを提案する。
データ中毒攻撃では、BoTPAは15.3%から36.9%の攻撃成功率(RI-ASR)で中央値の上昇を達成できる。
モデル中毒の文脈では、BoTPAは13.3%から94.7%までのRI-ASRをKrumとMulti-Krumの存在下で達成する。
- 参考スコア(独自算出の注目度): 9.351082283869237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) exposes vulnerabilities to targeted poisoning attacks that aim to cause misclassification specifically from the source class to the target class. However, using well-established defense frameworks, the poisoning impact of these attacks can be greatly mitigated. We introduce a generalized pre-training stage approach to Boost Targeted Poisoning Attacks against FL, called BoTPA. Its design rationale is to leverage the model update contributions of all data points, including ones outside of the source and target classes, to construct an Amplifier set, in which we falsify the data labels before the FL training process, as a means to boost attacks. We comprehensively evaluate the effectiveness and compatibility of BoTPA on various targeted poisoning attacks. Under data poisoning attacks, our evaluations reveal that BoTPA can achieve a median Relative Increase in Attack Success Rate (RI-ASR) between 15.3% and 36.9% across all possible source-target class combinations, with varying percentages of malicious clients, compared to its baseline. In the context of model poisoning, BoTPA attains RI-ASRs ranging from 13.3% to 94.7% in the presence of the Krum and Multi-Krum defenses, from 2.6% to 49.2% under the Median defense, and from 2.9% to 63.5% under the Flame defense.
- Abstract(参考訳): フェデレートラーニング(FL)は、ソースクラスからターゲットクラスに特に誤分類を引き起こすことを目的とした、標的となる中毒攻撃に対する脆弱性を公開する。
しかし、十分に確立された防御フレームワークを使用することで、これらの攻撃による有害な影響を大幅に軽減することができる。
本稿では,BOTPA (Boost Targeted Poisoning Attacks to FL) の一般向け事前訓練ステージアプローチを提案する。
その設計の根拠は、ソースやターゲットクラス以外のものを含むすべてのデータポイントのモデル更新コントリビューションを活用して、Amplifierセットを構築することです。
種々の標的毒素に対するBoTPAの有効性と適合性を包括的に評価した。
データ中毒攻撃下では,BoTPAは攻撃成功率(RI-ASR)の中央値が15.3%から36.9%の範囲で,攻撃成功率(RI-ASR)の中央値に達することが判明した。
モデル中毒の文脈では、BoTPAは13.3%から94.7%までのRI-ASRを、CrumとMulti-Krumの防衛で2.6%から49.2%、Flamの防衛で2.9%から63.5%に到達している。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Towards Out-of-Distribution Adversarial Robustness [18.019850207961465]
ドメイン一般化アプローチを採用することで、多くの一般的な攻撃に対して改善の余地があることが示される。
我々は、各攻撃をドメインとして扱い、全ての訓練攻撃に対して同様のロバスト性を促進するリスク外挿法(REx)を適用した。
既存の手法と比較して,訓練中に見られた攻撃に対して,同様の,あるいは優れた対逆的堅牢性が得られる。
論文 参考訳(メタデータ) (2022-10-06T18:23:10Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - Attacking Adversarial Attacks as A Defense [40.8739589617252]
敵の攻撃は 知覚不能な摂動で ディープニューラルネットワークを騙す
逆向きに訓練されたモデルでは、小さなランダムノイズで逆向きの例を摂動することで、誤った予測を無効にすることができる。
我々はより効果的な防御的摂動を構築することで攻撃に対抗することを提案する。
論文 参考訳(メタデータ) (2021-06-09T09:31:10Z) - A BIC based Mixture Model Defense against Data Poisoning Attacks on
Classifiers [24.53226962899903]
Data Poisoning (DP) は、訓練された分類器が入力を誤って分類する効果的な攻撃である。
本稿では,DP攻撃に対する新しい混合モデル防御法を提案する。
論文 参考訳(メタデータ) (2021-05-28T01:06:09Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。