論文の概要: Exploring Robustness of Visual State Space model against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2408.11679v2
- Date: Thu, 22 Aug 2024 04:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 12:32:33.501583
- Title: Exploring Robustness of Visual State Space model against Backdoor Attacks
- Title(参考訳): バックドア攻撃に対する視覚状態空間モデルのロバスト性を探る
- Authors: Cheng-Yi Lee, Cheng-Chang Tsai, Chia-Mu Yu, Chun-Shien Lu,
- Abstract要約: 我々は、バックドア攻撃のレンズを通して、VSS(Visual State Space Model)の堅牢性を理解する実験を行う。
まず、異なるバックドアトリガに対するVSSの脆弱性を調査し、SSMメカニズムによってVSSモデルがバックドアトリガに対してより影響を受けやすいことを明らかにする。
パッチの摂動に抵抗するために各パッチに再帰するVSSモデルの効果的なバックドアを検討する。
- 参考スコア(独自算出の注目度): 10.650319885027054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual State Space Model (VSS) has demonstrated remarkable performance in various computer vision tasks. However, in the process of development, backdoor attacks have brought severe challenges to security. Such attacks cause an infected model to predict target labels when a specific trigger is activated, while the model behaves normally on benign samples. In this paper, we conduct systematic experiments to comprehend on robustness of VSS through the lens of backdoor attacks, specifically how the state space model (SSM) mechanism affects robustness. We first investigate the vulnerability of VSS to different backdoor triggers and reveal that the SSM mechanism, which captures contextual information within patches, makes the VSS model more susceptible to backdoor triggers compared to models without SSM. Furthermore, we analyze the sensitivity of the VSS model to patch processing techniques and discover that these triggers are effectively disrupted. Based on these observations, we consider an effective backdoor for the VSS model that recurs in each patch to resist patch perturbations. Extensive experiments across three datasets and various backdoor attacks reveal that the VSS model performs comparably to Transformers (ViTs) but is less robust than the Gated CNNs, which comprise only stacked Gated CNN blocks without SSM.
- Abstract(参考訳): Visual State Space Model (VSS) は様々なコンピュータビジョンタスクにおいて顕著な性能を示した。
しかし、開発過程では、バックドア攻撃はセキュリティに深刻な課題をもたらしている。
このような攻撃は、特定のトリガーがアクティベートされた時に、感染したモデルがターゲットラベルを予測し、モデルが通常、良質なサンプルで振る舞います。
本稿では,バックドアアタックのレンズを通してVSSのロバスト性を理解するための系統実験を行い,特に状態空間モデル(SSM)機構がロバスト性に与える影響について述べる。
まず、異なるバックドアトリガに対するVSSの脆弱性を調査し、パッチ内のコンテキスト情報をキャプチャするSSMメカニズムにより、VSSモデルは、SSMのないモデルと比較してバックドアトリガにより影響を受けやすいことを明らかにした。
さらに,VSSモデルの処理技術に対する感度を分析し,これらのトリガが効果的に破壊されていることを明らかにする。
これらの観測に基づいて、パッチの摂動に抵抗するために各パッチに再帰するVSSモデルの効果的なバックドアを検討する。
3つのデータセットにわたる大規模な実験とさまざまなバックドアアタックにより、VSSモデルはTransformers(ViT)と互換性があるが、Gated CNNよりも堅牢ではないことが明らかになった。
関連論文リスト
- BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Measuring Impacts of Poisoning on Model Parameters and Embeddings for Large Language Models of Code [4.305373051747465]
大規模言語モデル(LLM)はソフトウェア開発プラクティスに革命をもたらしたが、その安全性に関する懸念が生まれている。
バックドア攻撃には、トレーニングデータにトリガーを挿入することが含まれており、攻撃者はモデルの振る舞いを悪意を持って操作することができる。
本稿では,コードモデルにおける潜在的なバックドア信号を検出するためのモデルパラメータの解析に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-19T06:53:20Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Versatile Backdoor Attack with Visible, Semantic, Sample-Specific, and Compatible Triggers [38.67988745745853]
我々はtextbfVisible, textbfSemantic, textbfSample-lang, textbfCompatible (VSSC) と呼ばれる新しいトリガを提案する。
VSSCトリガは、効果的でステルス的で堅牢な同時実行を実現しており、対応するオブジェクトを使用して物理的シナリオに効果的にデプロイすることもできる。
論文 参考訳(メタデータ) (2023-06-01T15:42:06Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Exposing Backdoors in Robust Machine Learning Models [0.5672132510411463]
逆向きに堅牢なモデルがバックドア攻撃の影響を受けやすいことを示す。
バックドアはそのようなモデルの 特徴表現に反映されます
この観測は、AEGISと呼ばれる検出技術を用いて、バックドア感染モデルを検出するために利用される。
論文 参考訳(メタデータ) (2020-02-25T04:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。