論文の概要: COBRA: Catastrophic Bit-flip Reliability Analysis of State-Space Models
- arxiv url: http://arxiv.org/abs/2512.15778v2
- Date: Mon, 22 Dec 2025 01:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 14:49:56.281942
- Title: COBRA: Catastrophic Bit-flip Reliability Analysis of State-Space Models
- Title(参考訳): COBRA:状態空間モデルの破滅的ビットフリップ信頼性解析
- Authors: Sanjay Das, Swastik Bhattacharya, Shamik Kundu, Arnab Raha, Souvik Kundu, Kanad Basu,
- Abstract要約: 私たちは、Mambaベースのアーキテクチャをターゲットにした最初のフレームワークであるRAMBOを紹介します。
我々は、1つの臨界ビットだけを反転させることで、破滅的に精度を74.64%から0%に下げ、18.94から3.75 x 106へとパープレキシティを増大させることができることを示した。
- 参考スコア(独自算出の注目度): 6.546311951672279
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State-space models (SSMs), exemplified by the Mamba architecture, have recently emerged as state-of-the-art sequence-modeling frameworks, offering linear-time scalability together with strong performance in long-context settings. Owing to their unique combination of efficiency, scalability, and expressive capacity, SSMs have become compelling alternatives to transformer-based models, which suffer from the quadratic computational and memory costs of attention mechanisms. As SSMs are increasingly deployed in real-world applications, it is critical to assess their susceptibility to both software- and hardware-level threats to ensure secure and reliable operation. Among such threats, hardware-induced bit-flip attacks (BFAs) pose a particularly severe risk by corrupting model parameters through memory faults, thereby undermining model accuracy and functional integrity. To investigate this vulnerability, we introduce RAMBO, the first BFA framework specifically designed to target Mamba-based architectures. Through experiments on the Mamba-1.4b model with LAMBADA benchmark, a cloze-style word-prediction task, we demonstrate that flipping merely a single critical bit can catastrophically reduce accuracy from 74.64% to 0% and increase perplexity from 18.94 to 3.75 x 10^6. These results demonstrate the pronounced fragility of SSMs to adversarial perturbations.
- Abstract(参考訳): Mambaアーキテクチャで実証された状態空間モデル(SSM)は、最近最先端のシーケンスモデリングフレームワークとして登場し、長いコンテキスト設定で強力なパフォーマンスと線形時間スケーラビリティを提供する。
効率性、スケーラビリティ、表現能力の独特な組み合わせにより、SSMは、注意機構の2次計算とメモリコストに悩まされるトランスフォーマーベースのモデルに代わる魅力的な選択肢となっている。
SSMはますます現実世界のアプリケーションにデプロイされているため、安全で信頼性の高い運用を保証するために、ソフトウェアレベルの脅威とハードウェアレベルの脅威の両方に対する感受性を評価することが重要である。
このような脅威の中で、ハードウェアが引き起こすビットフリップ攻撃(BFA)は、メモリ障害によってモデルパラメータを破損させ、モデル精度と機能的整合性を損なうことにより、特に深刻なリスクを引き起こす。
この脆弱性を調査するため,我々はMambaベースのアーキテクチャをターゲットにした最初のBFAフレームワークであるRAMBOを紹介した。
クローゼスタイルの単語予測タスクであるLAMBADAベンチマークを用いたMamba-1.4bモデルの実験を通じて、1つの臨界ビットだけを反転させることで、精度を74.64%から0%に、パープレキシティを18.94から3.75 x 10^6に減少させることができることを示した。
これらの結果から, 対側摂動に対するSSMの顕著な脆弱さが示唆された。
関連論文リスト
- FlipLLM: Efficient Bit-Flip Attacks on Multimodal LLMs using Reinforcement Learning [0.0]
FlipLLMは、BFA発見をシーケンシャルな意思決定問題として定式化するフレームワークである。
FlipLLMは、SOTA法よりも2.5倍高速なBFAに対して脆弱な臨界ビットを識別できることを示す。
ECC SECDEDなどの標準的なハードウェア保護機構をFlipLLMで識別されたビット位置に適用することで、BFAの影響を完全に緩和する。
論文 参考訳(メタデータ) (2025-12-10T17:58:18Z) - Routing Mamba: Scaling State Space Models with Mixture-of-Experts Projection [88.47928738482719]
線形状態空間モデル(SSM)は、シーケンスモデリングにおいて顕著なパフォーマンス向上を提供する。
Mambaのような最近の進歩は、入力依存のゲーティングとハードウェア対応の実装により、SSMをさらに強化している。
本稿では,線形射影の専門家による疎混合を用いてSSMパラメータをスケールする新しい手法であるRoM(Roing Mamba)を紹介する。
論文 参考訳(メタデータ) (2025-06-22T19:26:55Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Efficient Unstructured Pruning of Mamba State-Space Models for Resource-Constrained Environments [6.908972852063454]
状態空間モデル(SSM)は、シーケンスモデリングのためのトランスフォーマーの強力な代替品として登場した。
そこで本研究では,Mambaモデルに適した非構造化プルーニングフレームワークを提案し,その性能を95%以上維持しながら,最大70%のパラメータ削減を実現した。
論文 参考訳(メタデータ) (2025-05-13T07:23:08Z) - Resilience of Vision Transformers for Domain Generalisation in the Presence of Out-of-Distribution Noisy Images [2.2124795371148616]
マスク付き画像モデリング(MIM)で事前訓練した視覚トラスフォーマーを,OODベンチマークと比較した。
実験では、BEITの既知の堅牢性を実証し、PACSでは94%、Office-Homeでは87%の精度を維持した。
これらの洞察は、実験室で訓練されたモデルと、不確実性の下で確実に一般化するAIシステムを構築するための青写真を提供する現実世界のデプロイメントのギャップを埋めるものだ。
論文 参考訳(メタデータ) (2025-04-05T16:25:34Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Mamba-CL: Optimizing Selective State Space Model in Null Space for Continual Learning [54.19222454702032]
継続的学習は、AIモデルに時間とともに一連のタスクを学習する能力を持たせることを目的としている。
ステートスペースモデル(SSM)はコンピュータビジョンにおいて顕著な成功を収めた。
大規模マンバ基礎モデルのコアSSMを連続的に微調整するフレームワークであるMamba-CLを紹介する。
論文 参考訳(メタデータ) (2024-11-23T06:36:16Z) - A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。