論文の概要: Silent Until Sparse: Backdoor Attacks on Semi-Structured Sparsity
- arxiv url: http://arxiv.org/abs/2509.08747v1
- Date: Wed, 03 Sep 2025 14:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.509693
- Title: Silent Until Sparse: Backdoor Attacks on Semi-Structured Sparsity
- Title(参考訳): 静けさからスパースまで:半構造空間におけるバックドア攻撃
- Authors: Wei Guo, Maura Pintor, Ambra Demontis, Battista Biggio,
- Abstract要約: 半構造化空間を標的としたSilent Until Sparse (SUS) バックドアアタックを導入する。
我々の攻撃はNVIDIAとPyTorchの半構造化されたスパーシリティアルゴリズムを脅かすことに成功した。
実験の結果, 解毒前の攻撃成功率は10%以下であったが, その後の攻撃成功率は99%を超えることがわかった。
- 参考スコア(独自算出の注目度): 16.60001324267935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the deployment phase, semi-structured sparsity accelerates the execution of deep neural networks on modern GPUs via sparse matrix multiplication. In this paper, targeting the semi-structured sparsity, we introduce a Silent Until Sparse (SUS) backdoor attack, where the released full model remains silent (benign), but becomes a backdoored model after sparsification. The attack operates in two phases: (i) in the backdoor training phase, the backdoor functionality is injected into specific weights that will be retained during the pruning process; (ii) in the backdoor hiding phase, the malicious behavior is concealed by fine-tuning elements that will be pruned away. This dual-phase approach ensures that the attack remains undetectable in the released model, but activates properly once the model is pruned with the semi-structured sparsity. Through extensive experiments, we show that our attack successfully threatens the semi-structured sparsity algorithms from both NVIDIA and PyTorch. Our empirical results show that, regardless of model architecture, the attack success rate of the released model remains below 10% prior to sparsification but exceeds 99% afterward. Moreover, we demonstrate that SUS attack is robust against state-of-the-art backdoor defenses and finetuning, highlighting a critical vulnerability in current model compression and deployment pipelines.
- Abstract(参考訳): デプロイフェーズでは、半構造化されたスパーシリティにより、スパース行列乗算による現代のGPU上でのディープニューラルネットワークの実行が加速される。
本稿では,半構造化空間を対象とし,Silent until Sparse (SUS) バックドア攻撃を導入する。
攻撃は2段階に分けて行われる。
一 バックドア訓練の段階では、刈り込み中に保持する特定の重量にバックドア機能を注入する。
(二)裏口隠蔽の段階では、悪質な行為は微調整の要素によって隠蔽され、取り除かれる。
この二重位相アプローチは、攻撃が解放されたモデルでは検出不能であることを保証するが、半構造化された間隔でモデルがプルーニングされると適切に活性化する。
大規模な実験により、当社の攻撃はNVIDIAとPyTorchの双方による半構造化されたスパーシリティアルゴリズムを脅かすことに成功した。
実験の結果, モデルアーキテクチャによらず, モデルが展開される前の攻撃成功率は10%以下であったが, その後は99%を超えることがわかった。
さらに、SUS攻撃が最先端のバックドア防御や微調整に対して堅牢であることを示し、現在のモデル圧縮およびデプロイメントパイプラインにおける重大な脆弱性を強調します。
関連論文リスト
- MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Neural Antidote: Class-Wise Prompt Tuning for Purifying Backdoors in CLIP [51.04452017089568]
CBPT(Class-wise Backdoor Prompt Tuning)は、テキストプロンプトでCLIPを間接的に浄化する効率的な防御機構である。
CBPTは、モデルユーティリティを保持しながら、バックドアの脅威を著しく軽減する。
論文 参考訳(メタデータ) (2025-02-26T16:25:15Z) - A Dual-Purpose Framework for Backdoor Defense and Backdoor Amplification in Diffusion Models [5.957580737396457]
PureDiffusionは、バックドアディフェンスとバックドアアタック増幅という2つの対照的な役割を同時に果たす、デュアル目的のフレームワークである。
防御のために,拡散モデルに埋め込まれたバックドアトリガを反転させる2つの新しい損失関数を導入する。
攻撃増幅のために、バックドア拡散モデルに埋め込まれた元のトリガを補強するために、我々のトリガー反転アルゴリズムをどのように利用できるかを説明する。
論文 参考訳(メタデータ) (2025-02-26T11:01:43Z) - Unlearn to Relearn Backdoors: Deferred Backdoor Functionality Attacks on Deep Learning Models [6.937795040660591]
バックドア攻撃の新たなパラダイムとして,Deferred Activated Backdoor Functionality (DABF)を紹介した。
従来の攻撃とは異なり、DABFは当初バックドアを隠蔽し、起動しても良質な出力を生成する。
DABF攻撃は、マシンラーニングモデルのライフサイクルで一般的なプラクティスを利用して、モデル更新と初期デプロイ後の微調整を実行する。
論文 参考訳(メタデータ) (2024-11-10T07:01:53Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。