論文の概要: Can Transformer Memory Be Corrupted? Investigating Cache-Side Vulnerabilities in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.17098v1
- Date: Mon, 20 Oct 2025 02:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.282065
- Title: Can Transformer Memory Be Corrupted? Investigating Cache-Side Vulnerabilities in Large Language Models
- Title(参考訳): トランスフォーマーメモリは破壊可能か? 大規模言語モデルにおけるキャッシュサイド脆弱性の調査
- Authors: Elias Hossain, Swayamjit Saha, Somshubhra Roy, Ravi Prasad,
- Abstract要約: 本稿では,制御された大きさと周波数で鍵ベクトルをキャッシュするモジュラーフレームワークであるMalicious Token Injection(MTI)を紹介する。
実験の結果,MTI は GPT-2 および LLaMA-2/7B の次トーケン分布と下流タスク性能を著しく変化させ,検索強化およびエージェント推論パイプラインの安定化を図った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even when prompts and parameters are secured, transformer language models remain vulnerable because their key-value (KV) cache during inference constitutes an overlooked attack surface. This paper introduces Malicious Token Injection (MTI), a modular framework that systematically perturbs cached key vectors at selected layers and timesteps through controlled magnitude and frequency, using additive Gaussian noise, zeroing, and orthogonal rotations. A theoretical analysis quantifies how these perturbations propagate through attention, linking logit deviations to the Frobenius norm of corruption and softmax Lipschitz dynamics. Empirical results show that MTI significantly alters next-token distributions and downstream task performance across GPT-2 and LLaMA-2/7B, as well as destabilizes retrieval-augmented and agentic reasoning pipelines. These findings identify cache integrity as a critical yet underexplored vulnerability in current LLM deployments, positioning cache corruption as a reproducible and theoretically grounded threat model for future robustness and security research.
- Abstract(参考訳): プロンプトとパラメータが保護されたとしても、推論中のキー値(KV)キャッシュが見落とされた攻撃面を構成するため、トランスフォーマー言語モデルは脆弱なままである。
本報告では,加法的ガウスノイズ,ゼロ化,直交回転を用いて,選択した層および時間ステップでキャッシュされた鍵ベクトルを系統的に摂動するモジュラーフレームワークであるMalicious Token Injection(MTI)を紹介する。
理論的解析は、これらの摂動がどのように注意を通して伝播するかを定量化し、ロジット偏差をフロベニウスの汚職のノルムとソフトマックス・リプシッツの力学とを結びつける。
実験の結果,MTI は GPT-2 および LLaMA-2/7B の次トーケン分布と下流タスク性能を著しく変化させ,検索強化およびエージェント推論パイプラインの安定化を図った。
これらの結果は、キャッシュの整合性は、現在のLCMデプロイメントにおいて重要で未発見の脆弱性であり、キャッシュの破損は、将来の堅牢性とセキュリティ研究のための再現可能で理論的に根拠付けられた脅威モデルとして位置づけている。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - Revisiting Multivariate Time Series Forecasting with Missing Values [74.56971641937771]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - Dynamic Sparse Causal-Attention Temporal Networks for Interpretable Causality Discovery in Multivariate Time Series [0.4369550829556578]
MTS(DyCAST-Net)における解釈因果発見のための動的スパース因果ネットワークを導入する。
DyCAST-Netは、拡張時間的畳み込みと動的スパースアテンション機構を統合することで因果発見を強化するために設計された新しいアーキテクチャである。
我々は、DyCAST-Netが、TCDF、GCFormer、CausalFormerといった既存のモデルより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-07-13T01:03:27Z) - Backdoor Cleaning without External Guidance in MLLM Fine-tuning [76.82121084745785]
Believe Your Eyes (BYE)は、アテンションエントロピーパターンを自己教師信号として活用して、バックドアサンプルを特定してフィルタリングするデータフィルタリングフレームワークである。
クリーンタスクのパフォーマンスを維持しながら、ほぼゼロの攻撃成功率を達成する。
論文 参考訳(メタデータ) (2025-05-22T17:11:58Z) - Robustifying Vision-Language Models via Dynamic Token Reweighting [28.675118345987887]
大きな視覚言語モデル(VLM)は、ジェイルブレイク攻撃に対して非常に脆弱である。
マルチモーダル・ジェイルブレイク攻撃を緩和する新しい推論時防御法を提案する。
視覚的モダリティによって誘導される安全関連分布シフトの新しい定式化を導入する。
論文 参考訳(メタデータ) (2025-05-22T03:00:39Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Advancing Vulnerability Classification with BERT: A Multi-Objective Learning Model [0.0]
本稿では,BERT(Bi Representations from Transformers)モデルを用いて複数ラベル分類を行う新しい脆弱性レポートを提案する。
システムはREST APIとStreamlit UIを介してデプロイされ、リアルタイムの脆弱性分析を可能にする。
論文 参考訳(メタデータ) (2025-03-26T06:04:45Z) - Mitigating Cache Noise in Test-Time Adaptation for Large Vision-Language Models [13.157596316463621]
下流タスクにおける分散シフトに起因する性能劣化に対する解決策として,視覚言語モデルのテスト時適応(TTA)が注目されている。
我々は、包括的で信頼性の高いキャッシュ機構を導入し、キャッシュ、残留、ガウス(CRG)と呼ばれる新しいゼロショットTTA手法を提案する。
13のベンチマーク実験の結果、CRGは最先端のTTA法よりも優れており、例外的な堅牢性と適応性を示している。
論文 参考訳(メタデータ) (2025-03-24T04:32:35Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。