論文の概要: ER-MIA: Black-Box Adversarial Memory Injection Attacks on Long-Term Memory-Augmented Large Language Models
- arxiv url: http://arxiv.org/abs/2602.15344v1
- Date: Tue, 17 Feb 2026 04:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.978363
- Title: ER-MIA: Black-Box Adversarial Memory Injection Attacks on Long-Term Memory-Augmented Large Language Models
- Title(参考訳): ER-MIA:長期記憶強化大言語モデルに対するブラックボックス対応メモリインジェクション攻撃
- Authors: Mitchell Piehl, Zhaohan Xi, Zuobin Xiong, Pan He, Muchao Ye,
- Abstract要約: 大規模言語モデル(LLM)は、有限コンテキストウィンドウを克服するために長期記憶システムで拡張されつつある。
最近の研究では、メモリが追加の攻撃面を提供するため、LSMはより脆弱になる。
本研究は,類似性に基づく検索機構をターゲットにしたブラックボックス対向性メモリインジェクション攻撃の最初の系統的研究である。
- 参考スコア(独自算出の注目度): 15.04025544838879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly augmented with long-term memory systems to overcome finite context windows and enable persistent reasoning across interactions. However, recent research finds that LLMs become more vulnerable because memory provides extra attack surfaces. In this paper, we present the first systematic study of black-box adversarial memory injection attacks that target the similarity-based retrieval mechanism in long-term memory-augmented LLMs. We introduce ER-MIA, a unified framework that exposes this vulnerability and formalizes two realistic attack settings: content-based attacks and question-targeted attacks. In these settings, ER-MIA includes an arsenal of composable attack primitives and ensemble attacks that achieve high success rates under minimal attacker assumptions. Extensive experiments across multiple LLMs and long-term memory systems demonstrate that similarity-based retrieval constitutes a fundamental and system-level vulnerability, revealing security risks that persist across memory designs and application scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)は、有限コンテキストウィンドウを克服し、相互作用間の永続的な推論を可能にするために、長期記憶システムでますます強化されている。
しかし、最近の研究では、メモリが追加の攻撃面を提供するため、LSMはより脆弱になる。
本稿では,長期記憶増強LDMにおける類似性に基づく検索機構をターゲットにした,ブラックボックス対向性メモリインジェクション攻撃の最初の系統的研究について述べる。
我々は,この脆弱性を公開し,コンテンツベースの攻撃と質問対象攻撃という2つの現実的な攻撃設定を形式化する統一フレームワークであるER-MIAを紹介する。
これらの設定では、ER-MIAは最小の攻撃仮定の下で高い成功率を達成する、構成可能な攻撃プリミティブとアンサンブル攻撃の武器を含む。
複数のLLMと長期記憶システムにわたる大規模な実験は、類似性に基づく検索が基本的なシステムレベルの脆弱性を構成し、メモリ設計やアプリケーションシナリオにまたがるセキュリティリスクを明らかにすることを実証している。
関連論文リスト
- "Someone Hid It": Query-Agnostic Black-Box Attacks on LLM-Based Retrieval [44.49026453970601]
大規模言語モデル(LLM)は,検索システムにおいて有効なバックボーンとして機能している。
近年の研究では、LDMをベースとしたRetrievalは敵の攻撃に弱いことが示されている。
ゼロショットサロゲートLPMをベースとした転送可能なインジェクショントークンを生成する実用的なブラックボックス攻撃法を提案する。
論文 参考訳(メタデータ) (2026-01-30T22:28:04Z) - MIRAGE: Misleading Retrieval-Augmented Generation via Black-box and Query-agnostic Poisoning Attacks [47.46936341268548]
Retrieval-Augmented Generation (RAG)システムでは、コーパス中毒という致命的な攻撃面が導入されている。
我々は,厳格なブラックボックスとクエリ非依存環境のために設計された,新しい多段階毒素パイプラインであるMIRAGEを提案する。
大規模な実験により、MIRAGEは攻撃効果とステルスネスの両方において既存のベースラインを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-12-09T06:38:16Z) - MTAttack: Multi-Target Backdoor Attacks against Large Vision-Language Models [52.37749859972453]
我々は,LVLMにおける複数のトリガターゲットマッピングを正確に行うための,最初のマルチターゲットバックドアアタックフレームワークであるMTAttackを提案する。
人気のあるベンチマークの実験では、マルチターゲット攻撃に対するMTAttackの成功率が高いことが示されている。
我々の攻撃は、データセット間での強力な一般化性と、バックドア防衛戦略に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-13T09:00:21Z) - Memory Under Siege: A Comprehensive Survey of Side-Channel Attacks on Memory [0.210674772139335]
メモリに対するサイドチャネル攻撃(SCAM)は、メモリサブシステムから意図しないデータ漏洩を利用して機密情報を推測する。
本研究の目的は、SCAMを検証し、様々な攻撃手法を分類し、既存の防御機構を評価することである。
論文 参考訳(メタデータ) (2025-05-08T02:16:08Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。