論文の概要: Topology Matters: Measuring Memory Leakage in Multi-Agent LLMs
- arxiv url: http://arxiv.org/abs/2512.04668v2
- Date: Mon, 08 Dec 2025 04:55:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 15:54:52.364659
- Title: Topology Matters: Measuring Memory Leakage in Multi-Agent LLMs
- Title(参考訳): トポロジーの課題:マルチエージェントLDMにおけるメモリリークの測定
- Authors: Jinbo Liu, Defu Cao, Yifei Wei, Tianyao Su, Yuan Liang, Yushun Dong, Yue Zhao, Xiyang Hu,
- Abstract要約: MAMA(Multi-Agent Memory Attack)は、ネットワーク構造がどのように漏洩を形作るかを測定するフレームワークである。
我々は,攻撃剤出力から回収した地絡PIIの割合として漏洩を定量化する。
結果は、アーキテクチャ上の選択から測定可能なプライバシリスクへの最初の体系的なマッピングを提供する。
- 参考スコア(独自算出の注目度): 26.288357188171265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph topology is a fundamental determinant of memory leakage in multi-agent LLM systems, yet its effects remain poorly quantified. We introduce MAMA (Multi-Agent Memory Attack), a framework that measures how network structure shapes leakage. MAMA operates on synthetic documents containing labeled Personally Identifiable Information (PII) entities, from which we generate sanitized task instructions. We execute a two-phase protocol: Engram (seeding private information into a target agent's memory) and Resonance (multi-round interaction where an attacker attempts extraction). Over up to 10 interaction rounds, we quantify leakage as the fraction of ground-truth PII recovered from attacking agent outputs via exact matching. We systematically evaluate six common network topologies (fully connected, ring, chain, binary tree, star, and star-ring), varying agent counts $n\in\{4,5,6\}$, attacker-target placements, and base models. Our findings reveal consistent patterns: fully connected graphs exhibit maximum leakage while chains provide strongest protection; shorter attacker-target graph distance and higher target centrality significantly increase vulnerability; leakage rises sharply in early rounds before plateauing; model choice shifts absolute leakage rates but preserves topology rankings; temporal/locational PII attributes leak more readily than identity credentials or regulated identifiers. These results provide the first systematic mapping from architectural choices to measurable privacy risk, yielding actionable guidance: prefer sparse or hierarchical connectivity, maximize attacker-target separation, limit node degree and network radius, avoid shortcuts bypassing hubs, and implement topology-aware access controls.
- Abstract(参考訳): グラフトポロジはマルチエージェントLDMシステムにおけるメモリリークの基本的な決定要因であるが、その効果は定量化されていない。
ネットワーク構造がどのように漏洩を形作るかを測定するフレームワークであるMAMA(Multi-Agent Memory Attack)を紹介する。
MAMAはPII(Personally Identible Information)エンティティをラベル付けした合成文書で動作し、そこから衛生タスク命令を生成する。
対象エージェントのメモリにプライベート情報を参照する) と Resonance (攻撃者が抽出を試みるマルチラウンドインタラクション) という2段階のプロトコルを実行します。
最大10回の相互作用ラウンドにおいて, 正確なマッチングにより, 攻撃剤出力から回復した地絡PIIの割合として, 漏洩を定量化する。
我々は6つの共通ネットワークトポロジ(全連結、リング、チェーン、二分木、スターリング、スターリング)を体系的に評価し、異なるエージェントは$n\in\{4,5,6\}$、アタッカーターゲット配置およびベースモデルである。
完全連結グラフが最大リークを示し,チェーンが最強保護を提供する一方で,攻撃目標グラフ距離が短くなり,目標中心性が高くなることにより脆弱性が著しく増加すること,モデル選択は絶対リーク率を変えるが,トポロジのランクは保たれること,時間的/位置的PII属性が識別認証や規制識別子よりも容易に漏洩すること,など,一貫したパターンが明らかになった。
これらの結果は、アーキテクチャ選択から測定可能なプライバシリスクへの最初の体系的なマッピングを提供し、実行可能なガイダンスを提供する。スパースまたは階層接続、攻撃目標分離の最大化、ノード次数とネットワーク半径の制限、ハブをバイパスするショートカットの回避、トポロジ対応アクセス制御の実装。
関連論文リスト
- The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - Metacognitive Self-Correction for Multi-Agent System via Prototype-Guided Next-Execution Reconstruction [58.51530390018909]
大規模言語モデルに基づくマルチエージェントシステムは、協調的な問題解決において優れているが、エラーのカスケードには脆弱である。
我々は,MASにリアルタイム,教師なし,ステップレベルの誤り検出と自己補正を付与するメタ認知フレームワークMASCを提案する。
論文 参考訳(メタデータ) (2025-10-16T05:35:37Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - LeakSealer: A Semisupervised Defense for LLMs Against Prompt Injection and Leakage Attacks [7.115093658017371]
LeakSealerは、法医学的な洞察のための静的分析とHuman-In-The-Loopパイプラインの動的防御を組み合わせた、モデルに依存しないフレームワークである。
筆者らはLeakSealerを,(1)公開ベンチマークデータセットを用いたジェイルブレイクの試み,(2)ラベル付きLLMインタラクションのキュレートデータセットによってサポートされているPIIリークの2つのシナリオで実証的に評価した。
論文 参考訳(メタデータ) (2025-08-01T13:04:28Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - Cluster-Aware Attacks on Graph Watermarks [50.19105800063768]
本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
論文 参考訳(メタデータ) (2025-04-24T22:49:28Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。