論文の概要: Silent Until Sparse: Backdoor Attacks on Semi-Structured Sparsity
- arxiv url: http://arxiv.org/abs/2509.08747v1
- Date: Wed, 03 Sep 2025 14:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.509693
- Title: Silent Until Sparse: Backdoor Attacks on Semi-Structured Sparsity
- Title(参考訳): 静けさからスパースまで:半構造空間におけるバックドア攻撃
- Authors: Wei Guo, Maura Pintor, Ambra Demontis, Battista Biggio,
- Abstract要約: 半構造化空間を標的としたSilent Until Sparse (SUS) バックドアアタックを導入する。
我々の攻撃はNVIDIAとPyTorchの半構造化されたスパーシリティアルゴリズムを脅かすことに成功した。
実験の結果, 解毒前の攻撃成功率は10%以下であったが, その後の攻撃成功率は99%を超えることがわかった。
- 参考スコア(独自算出の注目度): 16.60001324267935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the deployment phase, semi-structured sparsity accelerates the execution of deep neural networks on modern GPUs via sparse matrix multiplication. In this paper, targeting the semi-structured sparsity, we introduce a Silent Until Sparse (SUS) backdoor attack, where the released full model remains silent (benign), but becomes a backdoored model after sparsification. The attack operates in two phases: (i) in the backdoor training phase, the backdoor functionality is injected into specific weights that will be retained during the pruning process; (ii) in the backdoor hiding phase, the malicious behavior is concealed by fine-tuning elements that will be pruned away. This dual-phase approach ensures that the attack remains undetectable in the released model, but activates properly once the model is pruned with the semi-structured sparsity. Through extensive experiments, we show that our attack successfully threatens the semi-structured sparsity algorithms from both NVIDIA and PyTorch. Our empirical results show that, regardless of model architecture, the attack success rate of the released model remains below 10% prior to sparsification but exceeds 99% afterward. Moreover, we demonstrate that SUS attack is robust against state-of-the-art backdoor defenses and finetuning, highlighting a critical vulnerability in current model compression and deployment pipelines.
- Abstract(参考訳): デプロイフェーズでは、半構造化されたスパーシリティにより、スパース行列乗算による現代のGPU上でのディープニューラルネットワークの実行が加速される。
本稿では,半構造化空間を対象とし,Silent until Sparse (SUS) バックドア攻撃を導入する。
攻撃は2段階に分けて行われる。
一 バックドア訓練の段階では、刈り込み中に保持する特定の重量にバックドア機能を注入する。
(二)裏口隠蔽の段階では、悪質な行為は微調整の要素によって隠蔽され、取り除かれる。
この二重位相アプローチは、攻撃が解放されたモデルでは検出不能であることを保証するが、半構造化された間隔でモデルがプルーニングされると適切に活性化する。
大規模な実験により、当社の攻撃はNVIDIAとPyTorchの双方による半構造化されたスパーシリティアルゴリズムを脅かすことに成功した。
実験の結果, モデルアーキテクチャによらず, モデルが展開される前の攻撃成功率は10%以下であったが, その後は99%を超えることがわかった。
さらに、SUS攻撃が最先端のバックドア防御や微調整に対して堅牢であることを示し、現在のモデル圧縮およびデプロイメントパイプラインにおける重大な脆弱性を強調します。
関連論文リスト
- A Dual-Purpose Framework for Backdoor Defense and Backdoor Amplification in Diffusion Models [5.957580737396457]
PureDiffusionは、バックドアディフェンスとバックドアアタック増幅という2つの対照的な役割を同時に果たす、デュアル目的のフレームワークである。
防御のために,拡散モデルに埋め込まれたバックドアトリガを反転させる2つの新しい損失関数を導入する。
攻撃増幅のために、バックドア拡散モデルに埋め込まれた元のトリガを補強するために、我々のトリガー反転アルゴリズムをどのように利用できるかを説明する。
論文 参考訳(メタデータ) (2025-02-26T11:01:43Z) - Unlearn to Relearn Backdoors: Deferred Backdoor Functionality Attacks on Deep Learning Models [6.937795040660591]
バックドア攻撃の新たなパラダイムとして,Deferred Activated Backdoor Functionality (DABF)を紹介した。
従来の攻撃とは異なり、DABFは当初バックドアを隠蔽し、起動しても良質な出力を生成する。
DABF攻撃は、マシンラーニングモデルのライフサイクルで一般的なプラクティスを利用して、モデル更新と初期デプロイ後の微調整を実行する。
論文 参考訳(メタデータ) (2024-11-10T07:01:53Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。