論文の概要: Taming Various Privilege Escalation in LLM-Based Agent Systems: A Mandatory Access Control Framework
- arxiv url: http://arxiv.org/abs/2601.11893v1
- Date: Sat, 17 Jan 2026 03:22:56 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-01-21 12:32:08.925118
- Title: Taming Various Privilege Escalation in LLM-Based Agent Systems: A Mandatory Access Control Framework
- Title(参考訳): LLMエージェントシステムにおける各種プリビレージエスカレーションのモデリング:強制アクセス制御フレームワーク
- Authors: Zimo Ji, Daoyuan Wu, Wenyuan Jiang, Pingchuan Ma, Zongjie Li, Yudong Gao, Shuai Wang, Yingjiu Li,
- Abstract要約: LLM(Large Language Model)ベースのエージェントシステムは、複雑な現実世界のタスクに対してますます多くデプロイされている。
本稿では,特権エスカレーションのレンズによる攻撃の理解と軽減を目的としている。
属性ベースアクセス制御(ABAC)に基づく必須アクセス制御フレームワークSEAgentを提案する。
評価の結果,SEAgentは低偽陽性率と無視可能なシステムオーバーヘッドを維持しつつ,様々な特権のエスカレーションを効果的に抑制していることがわかった。
- 参考スコア(独自算出の注目度): 16.14469140816631
- License:
- Abstract: Large Language Model (LLM)-based agent systems are increasingly deployed for complex real-world tasks but remain vulnerable to natural language-based attacks that exploit over-privileged tool use. This paper aims to understand and mitigate such attacks through the lens of privilege escalation, defined as agent actions exceeding the least privilege required for a user's intended task. Based on a formal model of LLM agent systems, we identify novel privilege escalation scenarios, particularly in multi-agent systems, including a variant akin to the classic confused deputy problem. To defend against both known and newly demonstrated privilege escalation, we propose SEAgent, a mandatory access control (MAC) framework built upon attribute-based access control (ABAC). SEAgent monitors agent-tool interactions via an information flow graph and enforces customizable security policies based on entity attributes. Our evaluations show that SEAgent effectively blocks various privilege escalation while maintaining a low false positive rate and negligible system overhead. This demonstrates its robustness and adaptability in securing LLM-based agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントシステムは、複雑な現実世界のタスクに対してますますデプロイされているが、過度に特権化されたツールの使用を利用する自然言語ベースの攻撃には弱いままである。
本稿では、ユーザの意図したタスクに必要な最小特権を超えるエージェントアクションとして定義された特権エスカレーションのレンズを通じて、そのような攻撃を理解し、軽減することを目的とする。
LLMエージェントシステムの形式的モデルに基づいて、特に従来の混乱副問題に類似した変種を含むマルチエージェントシステムにおいて、新しい特権エスカレーションシナリオを同定する。
本稿では,属性ベースのアクセス制御(ABAC)上に構築されたMACフレームワークであるSEAgentを提案する。
SEAgentは情報フローグラフを通じてエージェントとツールのインタラクションを監視し、エンティティ属性に基づいたカスタマイズ可能なセキュリティポリシを実行する。
評価の結果,SEAgentは低い偽陽性率と無視可能なシステムオーバーヘッドを維持しつつ,様々な特権のエスカレーションを効果的に抑制していることがわかった。
このことは、LLMベースのエージェントシステムを保護するための堅牢性と適応性を示している。
関連論文リスト
- Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Secure and Efficient Access Control for Computer-Use Agents via Context Space [11.077973600902853]
CSAgentは、コンピュータ利用エージェントのためのシステムレベルの静的ポリシーベースのアクセス制御フレームワークである。
我々はCSAgentの実装と評価を行い、99.36%以上の攻撃に対して防御に成功し、パフォーマンスオーバーヘッドは6.83%に過ぎなかった。
論文 参考訳(メタデータ) (2025-09-26T12:19:27Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - Progent: Programmable Privilege Control for LLM Agents [46.31581986508561]
本稿では,大規模言語モデルエージェントをセキュアにするための最初の特権制御フレームワークであるProgentを紹介する。
Progentは、潜在的に悪意のあるものをブロックしながら、ユーザタスクに必要なツールコールの実行をエージェントに制限することで、ツールレベルでのセキュリティを強化する。
モジュール設計のおかげで、Progentの統合はエージェント内部を変更せず、既存のエージェントの実装に最小限の変更しか必要としません。
論文 参考訳(メタデータ) (2025-04-16T01:58:40Z) - Prompt Flow Integrity to Prevent Privilege Escalation in LLM Agents [12.072737324367937]
大規模言語モデル(LLM)における特権エスカレーションを防止するために,PFI(Prompt Flow Integrity)を提案する。
PFIは、エージェントアイソレーション、セキュアな信頼できないデータ処理、特権エスカレーションガードレールの3つの緩和技術を備えている。
評価の結果, PFI は LLM エージェントの有効性を保ちながら, 特権エスカレーション攻撃を効果的に軽減できることが示唆された。
論文 参考訳(メタデータ) (2025-03-17T05:27:57Z) - GuardAgent: Safeguard LLM Agents by a Guard Agent via Knowledge-Enabled Reasoning [79.07152553060601]
安全ガード要求を満たすか否かを動的に確認し,目標エージェントを保護する最初のガードレールエージェントであるガードアジェントを提案する。
特にGuardAgentは、まず安全ガードの要求を分析してタスクプランを生成し、それからその計画をガードレールコードにマップして実行します。
GuardAgentは、それぞれ98%と83%のガードレール精度を持つ2つのベンチマークにおいて、異なる種類のエージェントに対する違反行為を効果的に抑制することを示した。
論文 参考訳(メタデータ) (2024-06-13T14:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。