論文の概要: Understanding Robustness of Visual State Space Models for Image Classification
- arxiv url: http://arxiv.org/abs/2403.10935v1
- Date: Sat, 16 Mar 2024 14:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 20:56:18.190126
- Title: Understanding Robustness of Visual State Space Models for Image Classification
- Title(参考訳): 画像分類のための視覚状態空間モデルのロバスト性理解
- Authors: Chengbin Du, Yanxi Li, Chang Xu,
- Abstract要約: Visual State Space Model (VMamba) は有望なアーキテクチャとして登場し、様々なコンピュータビジョンタスクにおいて顕著なパフォーマンスを示している。
対人攻撃に対する頑健性について検討し,全画像とパッチ固有の対人攻撃を併用した。
ホワイトボックス攻撃時のVMambaの勾配とバックプロパゲーションを調査し、ユニークな脆弱性と防御機能を明らかにする。
- 参考スコア(独自算出の注目度): 19.629800707546543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual State Space Model (VMamba) has recently emerged as a promising architecture, exhibiting remarkable performance in various computer vision tasks. However, its robustness has not yet been thoroughly studied. In this paper, we delve into the robustness of this architecture through comprehensive investigations from multiple perspectives. Firstly, we investigate its robustness to adversarial attacks, employing both whole-image and patch-specific adversarial attacks. Results demonstrate superior adversarial robustness compared to Transformer architectures while revealing scalability weaknesses. Secondly, the general robustness of VMamba is assessed against diverse scenarios, including natural adversarial examples, out-of-distribution data, and common corruptions. VMamba exhibits exceptional generalizability with out-of-distribution data but shows scalability weaknesses against natural adversarial examples and common corruptions. Additionally, we explore VMamba's gradients and back-propagation during white-box attacks, uncovering unique vulnerabilities and defensive capabilities of its novel components. Lastly, the sensitivity of VMamba to image structure variations is examined, highlighting vulnerabilities associated with the distribution of disturbance areas and spatial information, with increased susceptibility closer to the image center. Through these comprehensive studies, we contribute to a deeper understanding of VMamba's robustness, providing valuable insights for refining and advancing the capabilities of deep neural networks in computer vision applications.
- Abstract(参考訳): 近ごろ、Visual State Space Model (VMamba)が有望なアーキテクチャとして登場し、様々なコンピュータビジョンタスクにおいて顕著なパフォーマンスを示している。
しかし、その堅牢性はまだ十分に研究されていない。
本稿では,このアーキテクチャのロバスト性について,複数の視点から総合的な調査を通して考察する。
まず, 対人攻撃に対する堅牢性について検討し, 全体像とパッチ固有の対人攻撃の両方を用いて検討した。
その結果、Transformerアーキテクチャと比較して、スケーラビリティの弱点を明らかにしながら、優れた対向的堅牢性を示した。
第二に、VMambaの一般的な堅牢性は、自然な敵例、アウト・オブ・ディストリビューションデータ、一般的な腐敗など、さまざまなシナリオに対して評価される。
VMambaは、アウト・オブ・ディストリビューションデータによる例外的な一般化性を示すが、自然な敵例や一般的な腐敗に対するスケーラビリティの弱点を示す。
さらに、White-box攻撃時のVMambaの勾配とバックプロパゲーションを調査し、その新しいコンポーネントのユニークな脆弱性と防御能力を明らかにする。
最後に, 画像構造変化に対するVMambaの感度について検討し, 画像中心に近づき, 乱れ領域や空間情報の分布に関連する脆弱性を明らかにする。
これらの包括的な研究を通じて、我々はVMambaの堅牢性についてより深く理解し、コンピュータビジョンアプリケーションにおけるディープニューラルネットワークの能力を洗練し、改善するための貴重な洞察を提供する。
関連論文リスト
- Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Architectural Resilience to Foreground-and-Background Adversarial Noise [0.0]
正常な画像の知覚不能な摂動の形でのアドリサイドアタックが広く研究されている。
本稿では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するために,画像の異なるモデルに依存しないベンチマーク摂動を提案する。
論文 参考訳(メタデータ) (2020-03-23T01:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。