論文の概要: BadScan: An Architectural Backdoor Attack on Visual State Space Models
- arxiv url: http://arxiv.org/abs/2411.17283v1
- Date: Tue, 26 Nov 2024 10:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:34:59.886896
- Title: BadScan: An Architectural Backdoor Attack on Visual State Space Models
- Title(参考訳): BadScan: Visual State Space Modelに対するアーキテクチャ上のバックドア攻撃
- Authors: Om Suhas Deshmukh, Sankalp Nagaonkar, Achyut Mani Tripathi, Ashish Mishra,
- Abstract要約: 最近導入されたVisual State Space Model (VMamba) は視覚変換器 (ViT) と比較して非常に優れた性能を示している。
一般的なアプローチの1つは、トレーニングデータにトリガーを組み込んでモデルを再トレーニングすることで、データサンプルをターゲットクラスに誤分類する。
我々は、VMambaモデルを欺くように設計されたBadScanと呼ばれる新しいアーキテクチャバックドアアタックを導入する。
- 参考スコア(独自算出の注目度): 2.2499166814992435
- License:
- Abstract: The newly introduced Visual State Space Model (VMamba), which employs \textit{State Space Mechanisms} (SSM) to interpret images as sequences of patches, has shown exceptional performance compared to Vision Transformers (ViT) across various computer vision tasks. However, recent studies have highlighted that deep models are susceptible to adversarial attacks. One common approach is to embed a trigger in the training data to retrain the model, causing it to misclassify data samples into a target class, a phenomenon known as a backdoor attack. In this paper, we first evaluate the robustness of the VMamba model against existing backdoor attacks. Based on this evaluation, we introduce a novel architectural backdoor attack, termed BadScan, designed to deceive the VMamba model. This attack utilizes bit plane slicing to create visually imperceptible backdoored images. During testing, if a trigger is detected by performing XOR operations between the $k^{th}$ bit planes of the modified triggered patches, the traditional 2D selective scan (SS2D) mechanism in the visual state space (VSS) block of VMamba is replaced with our newly designed BadScan block, which incorporates four newly developed scanning patterns. We demonstrate that the BadScan backdoor attack represents a significant threat to visual state space models and remains effective even after complete retraining from scratch. Experimental results on two widely used image classification datasets, CIFAR-10, and ImageNet-1K, reveal that while visual state space models generally exhibit robustness against current backdoor attacks, the BadScan attack is particularly effective, achieving a higher Triggered Accuracy Ratio (TAR) in misleading the VMamba model and its variants.
- Abstract(参考訳): 新たに導入されたVisual State Space Model (VMamba)は、イメージをパッチのシーケンスとして解釈するためにtextit{State Space Mechanisms} (SSM) を使用している。
しかし、近年の研究は、ディープモデルが敵の攻撃に影響を受けやすいことを強調している。
一般的なアプローチの1つは、トレーニングデータにトリガーを組み込んでモデルを再トレーニングすることで、データサンプルをターゲットクラスに誤って分類する、という現象だ。
本稿では,既存のバックドア攻撃に対するVMambaモデルの堅牢性を評価する。
この評価に基づき、VMambaモデルを欺くように設計されたBadScanと呼ばれる新しいアーキテクチャバックドアアタックを導入する。
この攻撃はビット平面スライシングを利用して視覚的に知覚できないバックドア画像を生成する。
テスト中に、修正されたトリガパッチの$k^{th}$ビットプレーン間のXOR操作によってトリガーが検出された場合、VMambaの視覚状態空間(VSS)ブロックにおける従来の2D選択的スキャン(SS2D)メカニズムは、新たに設計されたBadScanブロックに置き換えられ、新たに開発された4つのスキャンパターンが組み込まれている。
BadScanのバックドア攻撃は、視覚状態空間モデルにとって重大な脅威であり、スクラッチから完全に再トレーニングした後でも有効であることを示す。
CIFAR-10とImageNet-1Kという2つの広く使われている画像分類データセットの実験結果によると、視覚状態空間モデルは一般的に現在のバックドア攻撃に対して堅牢性を示すが、BadScan攻撃は特に効果的であり、VMambaモデルとその変種を誤解させる上で高いTAR(Trigered Accuracy Ratio)を達成する。
関連論文リスト
- A Backdoor Attack Scheme with Invisible Triggers Based on Model Architecture Modification [12.393139669821869]
従来のバックドア攻撃では、トレーニングデータに特定のトリガーで悪意のあるサンプルを注入する。
より高度な攻撃は、モデルのアーキテクチャを直接変更する。
本論文では、新たなバックドア攻撃方法を示す。
モデルアーキテクチャ内にバックドアを埋め込んで,目立たない,ステルス的なトリガを生成する機能を備えている。
論文 参考訳(メタデータ) (2024-12-22T07:39:43Z) - Exploring Robustness of Visual State Space model against Backdoor Attacks [10.650319885027054]
我々は、バックドア攻撃のレンズを通して、VSS(Visual State Space Model)の堅牢性を理解する実験を行う。
まず、異なるバックドアトリガに対するVSSの脆弱性を調査し、SSMメカニズムによってVSSモデルがバックドアトリガに対してより影響を受けやすいことを明らかにする。
パッチの摂動に抵抗するために各パッチに再帰するVSSモデルの効果的なバックドアを検討する。
論文 参考訳(メタデータ) (2024-08-21T14:58:29Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。