論文の概要: MiniScope: A Least Privilege Framework for Authorizing Tool Calling Agents
- arxiv url: http://arxiv.org/abs/2512.11147v1
- Date: Thu, 11 Dec 2025 22:10:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.587958
- Title: MiniScope: A Least Privilege Framework for Authorizing Tool Calling Agents
- Title(参考訳): MiniScope: ツール呼び出しエージェントを認可するための最小限のプライヴィレッジフレームワーク
- Authors: Jinhao Zhu, Kevin Tseng, Gil Vernik, Xiao Huang, Shishir G. Patil, Vivian Fang, Raluca Ada Popa,
- Abstract要約: MiniScope は、信頼性の低い LLM による潜在的なダメージを埋めながら、ツール呼び出しエージェントがユーザアカウントで操作できるフレームワークである。
評価の結果,MiniScopeはバニラツール呼び出しエージェントに比べて1-6%の遅延オーバーヘッドしか発生しないことがわかった。
- 参考スコア(独自算出の注目度): 13.73193852761645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tool calling agents are an emerging paradigm in LLM deployment, with major platforms such as ChatGPT, Claude, and Gemini adding connectors and autonomous capabilities. However, the inherent unreliability of LLMs introduces fundamental security risks when these agents operate over sensitive user services. Prior approaches either rely on manually written policies that require security expertise, or place LLMs in the confinement loop, which lacks rigorous security guarantees. We present MiniScope, a framework that enables tool calling agents to operate on user accounts while confining potential damage from unreliable LLMs. MiniScope introduces a novel way to automatically and rigorously enforce least privilege principles by reconstructing permission hierarchies that reflect relationships among tool calls and combining them with a mobile-style permission model to balance security and ease of use. To evaluate MiniScope, we create a synthetic dataset derived from ten popular real-world applications, capturing the complexity of realistic agentic tasks beyond existing simplified benchmarks. Our evaluation shows that MiniScope incurs only 1-6% latency overhead compared to vanilla tool calling agents, while significantly outperforming the LLM based baseline in minimizing permissions as well as computational and operational costs.
- Abstract(参考訳): ツール呼び出しエージェントは、LLMデプロイメントにおける新たなパラダイムであり、ChatGPT、Claude、Geminiといった主要なプラットフォームにコネクタと自律機能が追加されている。
しかし、LSMの本質的な信頼性の欠如は、これらのエージェントがセンシティブなユーザサービス上で動作する際に、基本的なセキュリティリスクをもたらす。
以前のアプローチでは、セキュリティの専門知識を必要とする手書きのポリシーに依存するか、厳格なセキュリティ保証が欠如している制限ループにLSMを配置する。
信頼性の低いLDMの潜在的なダメージを補いながら、ユーザアカウント上でツール呼び出しエージェントが操作できるフレームワークであるMiniScopeを提案する。
MiniScopeは、ツールコール間の関係を反映したパーミッション階層を再構築し、セキュリティと使いやすさのバランスをとるモバイルスタイルのパーミッションモデルと組み合わせることで、最小特権原則を自動的かつ厳格に実施する新しい方法を紹介している。
MiniScopeを評価するために、我々は10の人気のある現実世界アプリケーションから合成データセットを作成し、既存の単純化されたベンチマークを超えて現実的なエージェントタスクの複雑さを捉える。
評価の結果,MiniScopeはバニラツール呼び出しエージェントに比べて1-6%の遅延オーバヘッドしか発生せず,LLMベースのベースラインよりも計算・運用コストの最小化に優れていた。
関連論文リスト
- Prompt Flow Integrity to Prevent Privilege Escalation in LLM Agents [12.072737324367937]
大規模言語モデル(LLM)における特権エスカレーションを防止するために,PFI(Prompt Flow Integrity)を提案する。
PFIは、エージェントアイソレーション、セキュアな信頼できないデータ処理、特権エスカレーションガードレールの3つの緩和技術を備えている。
評価の結果, PFI は LLM エージェントの有効性を保ちながら, 特権エスカレーション攻撃を効果的に軽減できることが示唆された。
論文 参考訳(メタデータ) (2025-03-17T05:27:57Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents [84.96249955105777]
LLMエージェントは誤用された場合、より大きなリスクを引き起こすが、その堅牢性は未発見のままである。
我々は, LLMエージェント誤用の研究を容易にするために, AgentHarmと呼ばれる新しいベンチマークを提案する。
主要なLLMは、ジェイルブレイクなしで悪意のあるエージェント要求に驚くほど準拠している。
論文 参考訳(メタデータ) (2024-10-11T17:39:22Z) - AgentBench: Evaluating LLMs as Agents [99.12825098528212]
エージェントとしてのLarge Language Model (LLM)は近年広く認知されている。
我々は,LLM-as-Agentの推論と意思決定能力を評価するために,8つの異なる環境からなるベンチマークであるAgentBenchを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。