論文の概要: Policy Compiler for Secure Agentic Systems
- arxiv url: http://arxiv.org/abs/2602.16708v1
- Date: Wed, 18 Feb 2026 18:57:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.696798
- Title: Policy Compiler for Secure Agentic Systems
- Title(参考訳): 安全なエージェントシステムのためのポリシーコンパイラ
- Authors: Nils Palumbo, Sarthak Choudhary, Jihye Choi, Prasad Chalasani, Mihai Christodorescu, Somesh Jha,
- Abstract要約: 本稿では,エージェントシステムのためのポリシーコンパイラであるPCASについて紹介する。
我々はPCASを3つのケーススタディ – インジェクション防衛のための情報フローポリシー、マルチエージェント製薬システムにおける承認、カスタマーサービスのための組織ポリシー – で評価する。
- 参考スコア(独自算出の注目度): 20.57488600570962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based agents are increasingly being deployed in contexts requiring complex authorization policies: customer service protocols, approval workflows, data access restrictions, and regulatory compliance. Embedding these policies in prompts provides no enforcement guarantees. We present PCAS, a Policy Compiler for Agentic Systems that provides deterministic policy enforcement. Enforcing such policies requires tracking information flow across agents, which linear message histories cannot capture. Instead, PCAS models the agentic system state as a dependency graph capturing causal relationships among events such as tool calls, tool results, and messages. Policies are expressed in a Datalog-derived language, as declarative rules that account for transitive information flow and cross-agent provenance. A reference monitor intercepts all actions and blocks violations before execution, providing deterministic enforcement independent of model reasoning. PCAS takes an existing agent implementation and a policy specification, and compiles them into an instrumented system that is policy-compliant by construction, with no security-specific restructuring required. We evaluate PCAS on three case studies: information flow policies for prompt injection defense, approval workflows in a multi-agent pharmacovigilance system, and organizational policies for customer service. On customer service tasks, PCAS improves policy compliance from 48% to 93% across frontier models, with zero policy violations in instrumented runs.
- Abstract(参考訳): LLMベースのエージェントは、カスタマサービスプロトコル、承認ワークフロー、データアクセス制限、規制コンプライアンスといった、複雑な認証ポリシーを必要とするコンテキストにデプロイされることが増えている。
これらのポリシーをプロンプトに組み込むことは、強制的な保証を提供しない。
本稿では,エージェントシステムのためのポリシーコンパイラであるPCASについて紹介する。
このようなポリシーを実施するには、エージェント間の情報の流れを追跡する必要がある。
代わりに、PCASはエージェントシステムの状態を、ツールコール、ツール結果、メッセージなどのイベント間の因果関係をキャプチャする依存性グラフとしてモデル化する。
ポリシーはDatalogから派生した言語で表現される。
参照モニタは、すべてのアクションをインターセプトし、実行前に違反をブロックする。
PCASは、既存のエージェントの実装とポリシー仕様を採用し、それらを、セキュリティ固有の再構築を必要とせず、構築によってポリシーに準拠した機器システムにコンパイルする。
我々はPCASを3つのケーススタディで評価する: インシデントインジェクション防衛のための情報フローポリシー、マルチエージェント製薬システムにおける承認ワークフロー、顧客サービスのための組織ポリシー。
カスタマーサービスタスクでは、PCASはフロンティアモデル全体のポリシーコンプライアンスを48%から93%改善する。
関連論文リスト
- Taming Various Privilege Escalation in LLM-Based Agent Systems: A Mandatory Access Control Framework [16.14469140816631]
LLM(Large Language Model)ベースのエージェントシステムは、複雑な現実世界のタスクに対してますます多くデプロイされている。
本稿では,特権エスカレーションのレンズによる攻撃の理解と軽減を目的としている。
属性ベースアクセス制御(ABAC)に基づく必須アクセス制御フレームワークSEAgentを提案する。
評価の結果,SEAgentは低偽陽性率と無視可能なシステムオーバーヘッドを維持しつつ,様々な特権のエスカレーションを効果的に抑制していることがわかった。
論文 参考訳(メタデータ) (2026-01-17T03:22:56Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Securing the Model Context Protocol (MCP): Risks, Controls, and Governance [1.4072883206858737]
我々は、MPPの柔軟性を生かした3種類の敵に焦点を当てる。
早期のインシデントと概念実証攻撃に基づいて,MPPが攻撃面を増加させる方法について述べる。
本稿では,ユーザ単位の認証とスコープ認証を含む,一連の実用的な制御を提案する。
論文 参考訳(メタデータ) (2025-11-25T23:24:26Z) - Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents [0.0]
Policy Cardは、AIエージェントの運用、規制、倫理的制約を表現するための、マシン可読なデプロイ層標準である。
各ポリシカードは、自動検証、バージョン管理、ランタイムの実施、あるいは継続的監査パイプラインにリンクすることができる。
論文 参考訳(メタデータ) (2025-10-28T12:59:55Z) - Analyzing and Internalizing Complex Policy Documents for LLM Agents [53.14898416858099]
大規模言語モデル(LLM)ベースのエージェントシステムは、多様なビジネスルールをコードするコンテキスト内ポリシー文書に依存している。
これは、パフォーマンスを保ちながら、ポリシー文書をモデルプリエントに組み込む内部化手法の開発を動機付けます。
CC-Genは4つのレベルにまたがる制御可能な複雑度を持つエージェントベンチマークジェネレータである。
論文 参考訳(メタデータ) (2025-10-13T16:30:07Z) - Policy-as-Prompt: Turning AI Governance Rules into Guardrails for AI Agents [0.19336815376402716]
我々は、構造化されていない設計成果物(RD、TDD、コードなど)を検証可能なランタイムガードレールに変換する規制機械学習フレームワークを導入します。
Promptメソッドとしての私たちのポリシーは、これらのドキュメントを読み、ソースリンクされたポリシーツリーを構築するためのリスクコントロールです。
システムは最小限の特権とデータ最小化を強制するために構築される。
論文 参考訳(メタデータ) (2025-09-28T17:36:52Z) - Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Mutual Information Regularized Offline Reinforcement Learning [76.05299071490913]
我々は、データセットにおける状態と行動間の相互情報の観点から、オフラインRLにアプローチする新しいMISAフレームワークを提案する。
この下位境界の最適化は、オフラインデータセット上での一段階改善されたポリシーの可能性の最大化と等価であることを示す。
MISAの3つの異なる変種を導入し、より厳密な相互情報によりオフラインのRL性能が向上することを示した。
論文 参考訳(メタデータ) (2022-10-14T03:22:43Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。