論文の概要: Breaking Diffusion with Cache: Exploiting Approximate Caches in Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.20424v1
- Date: Thu, 28 Aug 2025 04:46:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.020893
- Title: Breaking Diffusion with Cache: Exploiting Approximate Caches in Diffusion Models
- Title(参考訳): キャッシュで拡散を破る:拡散モデルにおける近似キャッシュの爆発
- Authors: Desen Sun, Shuncheng Jie, Sihang Liu,
- Abstract要約: 攻撃者はキャッシュヒットプロンプトに基づいて既存のキャッシュされたプロンプトを復元することができる。
我々は、攻撃者のロゴを以前盗まれたプロンプトに埋め込んだ中毒攻撃を導入し、キャッシュにヒットした将来のユーザープロンプトにそれらをレンダリングする。
これらの攻撃はすべてサービスシステムを通じてリモートで実行され、近似キャッシングにおける深刻なセキュリティ上の脆弱性を示している。
- 参考スコア(独自算出の注目度): 1.399348653165494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are a powerful class of generative models that produce content, such as images, from user prompts, but they are computationally intensive. To mitigate this cost, recent academic and industry work has adopted approximate caching, which reuses intermediate states from similar prompts in a cache. While efficient, this optimization introduces new security risks by breaking isolation among users. This work aims to comprehensively assess new security vulnerabilities arising from approximate caching. First, we demonstrate a remote covert channel established with the cache, where a sender injects prompts with special keywords into the cache and a receiver can recover that even after days, to exchange information. Second, we introduce a prompt stealing attack using the cache, where an attacker can recover existing cached prompts based on cache hit prompts. Finally, we introduce a poisoning attack that embeds the attacker's logos into the previously stolen prompt, to render them in future user prompts that hit the cache. These attacks are all performed remotely through the serving system, which indicates severe security vulnerabilities in approximate caching.
- Abstract(参考訳): 拡散モデルは、ユーザプロンプトから画像などのコンテンツを生成する強力な生成モデルである。
このコストを軽減するため、最近の学術的および産業的な作業では、キャッシュ内の同様のプロンプトから中間状態を再利用する近似キャッシングが採用されている。
効率的ではあるが、この最適化はユーザ間の分離を断ち切ることによって、新たなセキュリティリスクをもたらす。
この研究は、近似キャッシュに起因する新たなセキュリティ脆弱性を包括的に評価することを目的としている。
まず,送信側が特別なキーワードでプロンプトをキャッシュに注入し,受信側が数日後でもそれを回復し,情報を交換する。
次に、攻撃者がキャッシュヒットプロンプトに基づいて既存のキャッシュされたプロンプトを復元できるキャッシュを使用したプロンプト盗難攻撃を導入する。
最後に、攻撃者のロゴを以前盗まれたプロンプトに埋め込んだ中毒攻撃を導入し、キャッシュにヒットした将来のユーザプロンプトにそれらをレンダリングします。
これらの攻撃はすべてサービスシステムを通じてリモートで実行され、近似キャッシングにおける深刻なセキュリティ上の脆弱性を示している。
関連論文リスト
- DiCache: Let Diffusion Model Determine Its Own Cache [63.73224201922458]
実行時に拡散モデルを高速化するためのトレーニング不要な適応型キャッシュ戦略であるDiCacheを提案する。
Online Probe Profiling Schemeは、浅層オンラインプローブを利用して、キャッシュエラーに対する安定した事前をリアルタイムで取得する。
Dynamic Cache Trajectory Alignmentは、浅層プローブ機能トラジェクトリに基づくマルチステップキャッシュを組み合わせて、現在の機能をよりよく近似する。
論文 参考訳(メタデータ) (2025-08-24T13:30:00Z) - Auditing Prompt Caching in Language Model APIs [77.02079451561718]
大規模言語モデル(LLM)における即時キャッシュによるプライバシリークについて検討する。
OpenAIを含む7つのAPIプロバイダのユーザ間でのグローバルキャッシュ共有を検出します。
OpenAIの埋め込みモデルがデコーダのみのトランスフォーマーであることの証拠が見つかりました。
論文 参考訳(メタデータ) (2025-02-11T18:58:04Z) - vCache: Verified Semantic Prompt Caching [75.87215136638828]
本稿では,ユーザ定義エラー率保証を備えた最初の検証済みセマンティックキャッシュであるvCacheを提案する。
オンライン学習アルゴリズムを使用して、キャッシュされたプロンプト毎に最適な閾値を推定し、追加のトレーニングなしで信頼性の高いキャッシュ応答を可能にする。
我々の実験によると、vCacheは特定のエラー境界を一貫して満たし、最先端の静的な閾値と微調整された埋め込みベースラインより優れています。
論文 参考訳(メタデータ) (2025-02-06T04:16:20Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - CacheSquash: Making caches speculation-aware [11.499924192220274]
高いCPUパフォーマンスを実現する上では、投機が鍵となるが、Spectre攻撃のようなリスクを可能にする。
本稿では,メモリアクセスの不正を解消する新しい対策であるCacheSquashを提案する。
gem5にCacheSquashを実装し、ほぼゼロに近いパフォーマンスのオーバーヘッドで、実用的なSpectre攻撃を阻止していることを示す。
論文 参考訳(メタデータ) (2024-06-17T21:43:39Z) - Systematic Evaluation of Randomized Cache Designs against Cache Occupancy [11.018866935621045]
この研究は、ランダム化されたキャッシュに関する現在の文献において重要なギャップを埋める。
ほとんどのランダム化されたキャッシュ設計は競合ベースの攻撃のみを防御し、キャッシュ占有を考慮しない。
この結果から,ランダム化キャッシュ設計におけるキャッシュ占有側チャネルの検討の必要性が示唆された。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Random and Safe Cache Architecture to Defeat Cache Timing Attacks [5.142233612851766]
キャッシュは、メモリアクセスの処理に要する時間が異なるため、秘密情報を漏洩するために悪用されている。
攻撃と防御の空間を体系的に把握し、既存の防御がすべてのキャッシュタイミング攻撃に対処していないことを示す。
我々はRandom and Safe(RaS)キャッシュアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-28T05:08:16Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。