論文の概要: BadViM: Backdoor Attack against Vision Mamba
- arxiv url: http://arxiv.org/abs/2507.00577v1
- Date: Tue, 01 Jul 2025 08:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.545471
- Title: BadViM: Backdoor Attack against Vision Mamba
- Title(参考訳): BadViM:Vision Mambaに対するバックドア攻撃
- Authors: Yinghao Wu, Liyan Zhang,
- Abstract要約: 視覚状態空間モデル(SSM)は、視覚変換器(ViT)に代わる有望な代替品として登場した。
バックドア攻撃は、隠れたトリガーを犠牲者のモデルに埋め込むことを目的としており、モデルがこれらのトリガーを含む入力を誤って分類し、クリーンなインプットの正常な動作を維持する。
本稿では,Vision Mambaに特化して設計されたバックドアアタックフレームワークであるBadViMを導入することで,バックドアアタックに対するViMの感受性を検討する。
- 参考スコア(独自算出の注目度): 4.675365717794515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision State Space Models (SSMs), particularly architectures like Vision Mamba (ViM), have emerged as promising alternatives to Vision Transformers (ViTs). However, the security implications of this novel architecture, especially their vulnerability to backdoor attacks, remain critically underexplored. Backdoor attacks aim to embed hidden triggers into victim models, causing the model to misclassify inputs containing these triggers while maintaining normal behavior on clean inputs. This paper investigates the susceptibility of ViM to backdoor attacks by introducing BadViM, a novel backdoor attack framework specifically designed for Vision Mamba. The proposed BadViM leverages a Resonant Frequency Trigger (RFT) that exploits the frequency sensitivity patterns of the victim model to create stealthy, distributed triggers. To maximize attack efficacy, we propose a Hidden State Alignment loss that strategically manipulates the internal representations of model by aligning the hidden states of backdoor images with those of target classes. Extensive experimental results demonstrate that BadViM achieves superior attack success rates while maintaining clean data accuracy. Meanwhile, BadViM exhibits remarkable resilience against common defensive measures, including PatchDrop, PatchShuffle and JPEG compression, which typically neutralize normal backdoor attacks.
- Abstract(参考訳): ビジョン・ステート・スペース・モデル(SSM)、特にビジョン・マンバ(ViM)のようなアーキテクチャはビジョン・トランスフォーマー(ViT)に代わる有望な代替品として登場した。
しかし、この新しいアーキテクチャ、特にバックドア攻撃に対する脆弱性のセキュリティへの影響は、いまだに過小評価されている。
バックドア攻撃は、隠れたトリガーを犠牲者のモデルに埋め込むことを目的としており、モデルがこれらのトリガーを含む入力を誤って分類し、クリーンなインプットの正常な動作を維持する。
本稿では,Vision Mamba用に設計された新しいバックドアアタックフレームワークであるBadViMを導入することで,バックドアアタックに対するViMの感受性を検討する。
提案したBadViMは、被害者モデルの周波数感度パターンを利用してステルスで分散トリガーを生成する共振周波数トリガー(RFT)を利用している。
攻撃効率を最大化するために,モデルの内部表現を戦略的に操作する隠れ状態アライメント損失を提案する。
BadViMはクリーンなデータ精度を維持しながら攻撃成功率に優れることを示した。
一方BadViMは、PatchDrop、PatchShuffle、JPEG圧縮など、一般的な防御策に対して顕著なレジリエンスを示しており、通常は通常のバックドア攻撃を中和する。
関連論文リスト
- Backdoor Attack on Vision Language Models with Stealthy Semantic Manipulation [32.24294112337828]
BadSemは、トレーニング中に画像とテキストのペアを意図的に間違えることでバックドアを注入するデータ中毒攻撃だ。
実験の結果,BadSemは平均的ASRの98%以上を達成し,アウト・オブ・ディストリビューション・データセットに最適化し,有害なモダリティをまたいで転送可能であることがわかった。
我々の発見は、より安全なデプロイメントのためにビジョン言語モデルにおけるセマンティックな脆弱性に対処する緊急の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-06-08T16:40:40Z) - BadScan: An Architectural Backdoor Attack on Visual State Space Models [2.2499166814992435]
最近導入されたVisual State Space Model (VMamba) は視覚変換器 (ViT) と比較して非常に優れた性能を示している。
一般的なアプローチの1つは、トレーニングデータにトリガーを組み込んでモデルを再トレーニングすることで、データサンプルをターゲットクラスに誤分類する。
我々は、VMambaモデルを欺くように設計されたBadScanと呼ばれる新しいアーキテクチャバックドアアタックを導入する。
論文 参考訳(メタデータ) (2024-11-26T10:13:09Z) - Backdoor Attack Against Vision Transformers via Attention Gradient-Based Image Erosion [4.036142985883415]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクで従来の畳み込みニューラルネットワーク(CNN)を上回っている。
ViTはバックドア攻撃に対して脆弱で、敵がバックドアを被害者のモデルに埋め込む。
Intention Gradient-based Erosion Backdoor (AGEB) を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:06:12Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Defending Backdoor Attacks on Vision Transformer via Patch Processing [18.50522247164383]
ViT(Vision Transformers)は、畳み込みニューラルネットワークよりもはるかに少ない帰納バイアスを持つ、根本的に異なるアーキテクチャである。
本稿では,バックドア攻撃(バックドア攻撃)の代表的因果攻撃について検討する。
本稿では,パッチベースとブレンディングベースの両方で,パッチ処理によるバックドア攻撃を効果的に防御する手法を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:29:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。