論文の概要: CompressionAttack: Exploiting Prompt Compression as a New Attack Surface in LLM-Powered Agents
- arxiv url: http://arxiv.org/abs/2510.22963v1
- Date: Mon, 27 Oct 2025 03:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.434799
- Title: CompressionAttack: Exploiting Prompt Compression as a New Attack Surface in LLM-Powered Agents
- Title(参考訳): CompressionAttack: LLMエージェントの新たな攻撃面としてのプロンプト圧縮の爆発
- Authors: Zesen Liu, Zhixiang Zhang, Yuchong Xie, Dongdong She,
- Abstract要約: この作業では、プロンプト圧縮を新しい攻撃面として特定し、それを利用した最初のフレームワークであるCompressionAttackを提示する。
複数のLSMの実験では、攻撃の成功率は80%、好みのフリップは98%で、高いステルス性と転送性を維持している。
VSCode ClineとOllamaのケーススタディは、実際の影響を確認し、現在の防御は効果がないことを証明している。
- 参考スコア(独自算出の注目度): 7.68677090046928
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: LLM-powered agents often use prompt compression to reduce inference costs, but this introduces a new security risk. Compression modules, which are optimized for efficiency rather than safety, can be manipulated by adversarial inputs, causing semantic drift and altering LLM behavior. This work identifies prompt compression as a novel attack surface and presents CompressionAttack, the first framework to exploit it. CompressionAttack includes two strategies: HardCom, which uses discrete adversarial edits for hard compression, and SoftCom, which performs latent-space perturbations for soft compression. Experiments on multiple LLMs show up to 80% attack success and 98% preference flips, while remaining highly stealthy and transferable. Case studies in VSCode Cline and Ollama confirm real-world impact, and current defenses prove ineffective, highlighting the need for stronger protections.
- Abstract(参考訳): LLMを動力とするエージェントは、しばしば推論コストを削減するために即時圧縮を使用するが、これは新たなセキュリティリスクをもたらす。
圧縮モジュールは安全性よりも効率性に最適化されており、敵の入力によって操作することができ、セマンティックドリフトを引き起こし、LLMの振る舞いを変化させる。
この作業では、プロンプト圧縮を新しい攻撃面として特定し、それを利用した最初のフレームワークであるCompressionAttackを提示する。
CompressionAttackには2つの戦略がある: ハードコム(ハードコム)、ソフトコム(ソフトコム)、ソフト圧縮(ソフトコム)。
複数のLSMの実験では、攻撃の成功率は最大80%、好みのフリップは98%で、高いステルス性と転送性を維持している。
VSCode ClineとOllamaのケーススタディでは、実際の影響を確認し、現在の防御は効果がないことを証明し、より強力な保護の必要性を強調している。
関連論文リスト
- Compressing Many-Shots in In-Context Learning [61.231471139896506]
マルチショットプロンプトを圧縮することにより,ICL推論のメモリと計算効率を向上させる手法を提案する。
まず,既存のプロンプト圧縮手法がマルチショット圧縮には有効でないことを示す。
本稿では,レイヤワイド圧縮手法であるMemComを提案する。
論文 参考訳(メタデータ) (2025-10-17T16:57:42Z) - Autoencoding-Free Context Compression for LLMs via Contextual Semantic Anchors [43.02557489472655]
現在の文脈圧縮法は、文脈に依存しない圧縮トークンを訓練し、文脈意味論を圧縮する自動符号化タスクに依存している。
本稿では,自動符号化タスクベース圧縮から,この圧縮機能を備えたアーキテクチャへ移行する新しい手法であるSemantic-Anchor Compression (SAC)を提案する。
SACは、様々な圧縮比で既存の文脈圧縮手法より一貫して優れている。
論文 参考訳(メタデータ) (2025-10-10T01:42:14Z) - The Pitfalls of KV Cache Compression [52.196873305708955]
圧縮により、特定の命令がより高速に劣化することを示します。
本稿では, 圧縮法, 命令順序, KV消去バイアスなど, 即時漏洩に果たすいくつかの要因について述べる。
論文 参考訳(メタデータ) (2025-09-30T19:55:26Z) - Understanding and Improving Information Preservation in Prompt Compression for LLMs [15.797246416590339]
情報集約的なタスクでは、プロンプト長は急速に増加し、計算要求の増大、性能劣化、無関係または冗長な情報からのバイアスが引き起こされる。
本稿では,プロンプト圧縮手法の詳細な解析を可能にする総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-24T20:06:11Z) - Position IDs Matter: An Enhanced Position Layout for Efficient Context Compression in Large Language Models [34.92897341188079]
文脈情報を圧縮するために特別なトークンを使うことは、大規模言語モデル(LLM)の一般的な慣習である。
位置IDの調整のみでLLMの文脈圧縮能力を向上させる手法であるtextbfEnhanced Position Layout (EPL) を提案する。
論文 参考訳(メタデータ) (2024-09-22T08:51:18Z) - Beyond Perplexity: Multi-dimensional Safety Evaluation of LLM Compression [33.45167213570976]
モデル圧縮が4次元に与える影響について検討する:(1)退化障害、すなわち、世代におけるバイアスと毒性、(2)表現障害、すなわち、識別的タスクにおけるバイアス、(3)方言バイアス、(4)言語モデリングと下流タスクのパフォーマンス。
解析の結果,圧縮が予期せぬ結果をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-06T05:56:22Z) - Compressing LLMs: The Truth is Rarely Pure and Never Simple [90.05366363633568]
Knowledge-Intensive Compressed LLM BenchmarKは、圧縮された大言語モデルの評価プロトコルを再定義することを目的としている。
LLM-KICKは、現在のSoTA圧縮方式の多くの有利な利点と不運な点を明らかにしている。
LLM-KICKは、言語理解、推論、生成、テキスト内検索、テキスト内要約などのための圧縮LLMの能力に一様にアクセスできるように設計されている。
論文 参考訳(メタデータ) (2023-10-02T17:42:37Z) - Do Compressed LLMs Forget Knowledge? An Experimental Study with
Practical Implications [63.29358103217275]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて、パフォーマンスを低下させることが多い。
損傷の性質に関する2つの予想を提案する。1つは、圧縮後に忘れられた(または消された)知識である。
Inference-time Dynamic Prompting (IDP)と呼ばれる変種を導入し、推論オーバーヘッドを発生させることなく、迅速な多様性を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-10-02T03:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。