論文の概要: From Similarity to Vulnerability: Key Collision Attack on LLM Semantic Caching
- arxiv url: http://arxiv.org/abs/2601.23088v1
- Date: Fri, 30 Jan 2026 15:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.53277
- Title: From Similarity to Vulnerability: Key Collision Attack on LLM Semantic Caching
- Title(参考訳): 類似性から脆弱性へ:LLMセマンティックキャッシングにおける鍵衝突攻撃
- Authors: Zhixiang Zhang, Zesen Liu, Yuchong Xie, Quanfeng Huang, Dongdong She,
- Abstract要約: 本稿では,キャッシュ衝突による整合性リスクに関する最初の体系的研究について述べる。
我々は、ブラックボックス衝突攻撃を起動する自動化フレームワークであるCacheAttackを紹介した。
金融エージェントに関するケーススタディでは、これらの脆弱性の現実的な影響が示されている。
- 参考スコア(独自算出の注目度): 7.164841206695704
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semantic caching has emerged as a pivotal technique for scaling LLM applications, widely adopted by major providers including AWS and Microsoft. By utilizing semantic embedding vectors as cache keys, this mechanism effectively minimizes latency and redundant computation for semantically similar queries. In this work, we conceptualize semantic cache keys as a form of fuzzy hashes. We demonstrate that the locality required to maximize cache hit rates fundamentally conflicts with the cryptographic avalanche effect necessary for collision resistance. Our conceptual analysis formalizes this inherent trade-off between performance (locality) and security (collision resilience), revealing that semantic caching is naturally vulnerable to key collision attacks. While prior research has focused on side-channel and privacy risks, we present the first systematic study of integrity risks arising from cache collisions. We introduce CacheAttack, an automated framework for launching black-box collision attacks. We evaluate CacheAttack in security-critical tasks and agentic workflows. It achieves a hit rate of 86\% in LLM response hijacking and can induce malicious behaviors in LLM agent, while preserving strong transferability across different embedding models. A case study on a financial agent further illustrates the real-world impact of these vulnerabilities. Finally, we discuss mitigation strategies.
- Abstract(参考訳): セマンティックキャッシュはLLMアプリケーションをスケールするための重要なテクニックとして登場し、AWSやMicrosoftといった主要プロバイダが広く採用している。
セマンティック埋め込みベクトルをキャッシュキーとして利用することにより、セマンティックに類似したクエリに対する遅延と冗長な計算を効果的に最小化する。
本研究では,セマンティックキャッシュキーをファジィハッシュの一種として概念化する。
キャッシュヒット率の最大化に必要な局所性は、衝突抵抗に必要な暗号雪崩効果と基本的に矛盾することを示した。
我々の概念分析は、パフォーマンス(ローカル性)とセキュリティ(コリジョンレジリエンス)のこの固有のトレードオフを形式化し、セマンティックキャッシングが鍵衝突攻撃に対して自然に脆弱であることを明らかにする。
従来の研究では、サイドチャネルとプライバシのリスクに焦点が当てられていたが、キャッシュの衝突による整合性リスクに関する最初の体系的な研究を提示する。
我々は、ブラックボックス衝突攻撃を起動する自動化フレームワークであるCacheAttackを紹介した。
セキュリティクリティカルなタスクやエージェントワークフローでCacheAttackを評価します。
LLM応答ハイジャックにおいて86\%のヒット率を実現し、異なる埋め込みモデル間で強い伝達性を保ちながら、LLMエージェントの悪意ある振る舞いを誘発することができる。
金融エージェントに関するケーススタディでは、これらの脆弱性の現実的な影響をさらに説明している。
最後に、緩和戦略について議論する。
関連論文リスト
- The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - Can Transformer Memory Be Corrupted? Investigating Cache-Side Vulnerabilities in Large Language Models [0.0]
本稿では,制御された大きさと周波数で鍵ベクトルをキャッシュするモジュラーフレームワークであるMalicious Token Injection(MTI)を紹介する。
実験の結果,MTI は GPT-2 および LLaMA-2/7B の次トーケン分布と下流タスク性能を著しく変化させ,検索強化およびエージェント推論パイプラインの安定化を図った。
論文 参考訳(メタデータ) (2025-10-20T02:04:18Z) - Breaking Diffusion with Cache: Exploiting Approximate Caches in Diffusion Models [1.399348653165494]
攻撃者はキャッシュヒットプロンプトに基づいて既存のキャッシュされたプロンプトを復元することができる。
我々は、攻撃者のロゴを以前盗まれたプロンプトに埋め込んだ中毒攻撃を導入し、キャッシュにヒットした将来のユーザープロンプトにそれらをレンダリングする。
これらの攻撃はすべてサービスシステムを通じてリモートで実行され、近似キャッシングにおける深刻なセキュリティ上の脆弱性を示している。
論文 参考訳(メタデータ) (2025-08-28T04:46:44Z) - Semantic Caching for Low-Cost LLM Serving: From Offline Learning to Online Adaptation [54.61034867177997]
キャッシング推論応答は、大きな言語モデルに他の前方を通さずに、それらを検索することができる。
従来の正確なキャッシュは、クエリ間のセマンティックな類似性を見落とし、不要な再計算をもたらす。
本稿では,未知のクエリおよびコスト分布下でのセマンティックキャッシュ消去のための,原則的,学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T06:53:27Z) - InputSnatch: Stealing Input in LLM Services via Timing Side-Channel Attacks [9.748438507132207]
大規模言語モデル (LLM) には広範な知識と質問応答能力がある。
キャッシュ共有メソッドは、キャッシュされた状態や、同じまたは同様の推論要求に対するレスポンスを再利用することで、効率を高めるために一般的に使用される。
LLMの推論において入力盗難を実行するための新しいタイミングベースのサイドチャネル攻撃を提案する。
論文 参考訳(メタデータ) (2024-11-27T10:14:38Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Systematic Evaluation of Randomized Cache Designs against Cache Occupancy [11.018866935621045]
この研究は、ランダム化されたキャッシュに関する現在の文献において重要なギャップを埋める。
ほとんどのランダム化されたキャッシュ設計は競合ベースの攻撃のみを防御し、キャッシュ占有を考慮しない。
この結果から,ランダム化キャッシュ設計におけるキャッシュ占有側チャネルの検討の必要性が示唆された。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。