論文の概要: SAB:A Stealing and Robust Backdoor Attack based on Steganographic Algorithm against Federated Learning
- arxiv url: http://arxiv.org/abs/2408.13773v1
- Date: Sun, 25 Aug 2024 08:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 18:00:02.862418
- Title: SAB:A Stealing and Robust Backdoor Attack based on Steganographic Algorithm against Federated Learning
- Title(参考訳): SAB:フェデレートラーニングに対するステガノグラフィーアルゴリズムに基づくステアリングとロバストバックドアアタック
- Authors: Weida Xu, Yang Xu, Sicong Zhang,
- Abstract要約: フェデレートラーニング(Federated Learning)は、ユーザのプライバシを保護するために設計された、革新的なネットワークアーキテクチャである。
新たな目標は、盗みと堅牢な連邦学習バックドアアタックを開発することだ。
本稿では,フェデレートラーニングにおけるバックドアアタックに特化した新しいアプローチであるSABを紹介する。
- 参考スコア(独自算出の注目度): 3.6411410406927938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning, an innovative network architecture designed to safeguard user privacy, is gaining widespread adoption in the realm of technology. However, given the existence of backdoor attacks in federated learning, exploring the security of federated learning is significance. Nevertheless, the backdoors investigated in current federated learning research can be readily detected by human inspection or resisted by detection algorithms. Accordingly, a new goal has been set to develop stealing and robust federated learning backdoor attacks. In this paper, we introduce a novel approach, SAB, tailored specifically for backdoor attacks in federated learning, presenting an alternative gradient updating mechanism. SAB attack based on steganographic algorithm, using image steganographic algorithm to build a full-size trigger to improve the accuracy of backdoors and use multiple loss joint computation to produce triggers. SAB exhibits smaller distances to benign samples and greater imperceptibility to the human eye. As such, our triggers are capable of mitigating or evading specific backdoor defense methods. In SAB, the bottom-95\% method is applied to extend the lifespan of backdoor attacks. It updates the gradient on minor value points to reduce the probability of being cleaned. Finally, the generalization of backdoors is enhanced with Sparse-update to improve the backdoor accuracy.
- Abstract(参考訳): ユーザのプライバシを保護するために設計された、革新的なネットワークアーキテクチャであるフェデレートラーニング(Federated Learning)は、テクノロジの領域で広く採用されている。
しかし、フェデレートラーニングにおけるバックドア攻撃の存在を考えると、フェデレーションラーニングの安全性を探求することが重要である。
それにもかかわらず、現在の連合学習研究で調査されているバックドアは、人間の検査や検出アルゴリズムによって容易に検出できる。
そのため、盗みと堅牢な学習バックドアアタックを開発するという新たな目標が掲げられている。
本稿では,フェデレート学習におけるバックドア攻撃に特化して設計された新しいアプローチであるSABを紹介し,代替的な勾配更新機構を提案する。
ステガノグラフィーアルゴリズムに基づくSAB攻撃では、画像ステガノグラフィーアルゴリズムを用いてバックドアの精度を向上させるフルサイズのトリガを構築し、複数のロスジョイント計算を使用してトリガを生成する。
SABは、良性サンプルへの距離が小さく、ヒトの目に対する知覚力も高い。
このように、我々のトリガーは特定のバックドア防御方法を緩和または回避することができる。
SABではバックドア攻撃の寿命を延長するためにボトム95%の手法を適用した。
マイナー値ポイントの勾配を更新し、クリーン化の確率を下げる。
最後に,Sparse-updateによりバックドアの一般化が向上し,バックドアの精度が向上する。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Dual Model Replacement:invisible Multi-target Backdoor Attack based on Federal Learning [21.600003684064706]
本稿では,フェデレート学習に基づくバックドア攻撃手法を設計する。
バックドアトリガの隠蔽を目的としたエンコーダデコーダ構造を備えたトロイジャンガンステガノグラフィーモデルが設計されている。
フェデレート学習に基づく二重モデル置換バックドア攻撃アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-04-22T07:44:02Z) - Exploiting Machine Unlearning for Backdoor Attacks in Deep Learning
System [4.9233610638625604]
マシンアンラーニングに基づく新しいブラックボックスバックドア攻撃を提案する。
攻撃者はまず、毒や緩和データを含む慎重に設計されたサンプルでトレーニングセットを強化し、良心のモデルを訓練する。
そして、攻撃者は、モデルの関連するデータの影響を取り除くために、未学習のサンプルに対するリクエストをポストし、徐々に隠れたバックドアを活性化する。
論文 参考訳(メタデータ) (2023-09-12T02:42:39Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Dynamic Backdoor Attacks Against Machine Learning Models [28.799895653866788]
本研究では,DNN(Random Backdoor,Backdoor Generating Network,BaN)および条件付きBackdoor Generating Network(c-BaN)に対する動的バックドア技術の最初のクラスを提案する。
新たな生成ネットワークに基づくBaNとc-BaNは、アルゴリズムによってトリガを生成する最初の2つのスキームである。
本手法は, バックドアデータに対するほぼ完璧な攻撃性能を実現し, 実用性に欠ける損失を生じさせる。
論文 参考訳(メタデータ) (2020-03-07T22:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。