論文の概要: Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2510.24383v1
- Date: Tue, 28 Oct 2025 12:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.125106
- Title: Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents
- Title(参考訳): ポリシーカード: 自律型AIエージェントのためのマシン可読実行時ガバナンス
- Authors: Juraj Mavračić,
- Abstract要約: Policy Cardは、AIエージェントの運用、規制、倫理的制約を表現するための、マシン可読なデプロイ層標準である。
各ポリシカードは、自動検証、バージョン管理、ランタイムの実施、あるいは継続的監査パイプラインにリンクすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Policy Cards are introduced as a machine-readable, deployment-layer standard for expressing operational, regulatory, and ethical constraints for AI agents. The Policy Card sits with the agent and enables it to follow required constraints at runtime. It tells the agent what it must and must not do. As such, it becomes an integral part of the deployed agent. Policy Cards extend existing transparency artifacts such as Model, Data, and System Cards by defining a normative layer that encodes allow/deny rules, obligations, evidentiary requirements, and crosswalk mappings to assurance frameworks including NIST AI RMF, ISO/IEC 42001, and the EU AI Act. Each Policy Card can be validated automatically, version-controlled, and linked to runtime enforcement or continuous-audit pipelines. The framework enables verifiable compliance for autonomous agents, forming a foundation for distributed assurance in multi-agent ecosystems. Policy Cards provide a practical mechanism for integrating high-level governance with hands-on engineering practice and enabling accountable autonomy at scale.
- Abstract(参考訳): ポリシカードは、AIエージェントの運用、規制、倫理的制約を表現するための、マシン可読なデプロイ層標準として導入された。
Policy Cardはエージェントと一緒に置かれ、実行時に必要な制約に従うことができる。
エージェントにすべきことやすべきでないことを伝えます。
そのため、デプロイされたエージェントの不可欠な部分となる。
ポリシーカードは、NIST AI RMF、ISO/IEC 42001、EU AI Actなどの保証フレームワークに対する許容/否定ルール、義務、明示的な要件、横断歩道マッピングを符号化する規範的なレイヤを定義することで、モデル、データ、システムカードなどの既存の透明性アーティファクトを拡張する。
各ポリシカードは、自動検証、バージョン管理、ランタイムの実施、あるいは継続的監査パイプラインにリンクすることができる。
このフレームワークは、自律エージェントの検証可能なコンプライアンスを可能にし、マルチエージェントエコシステムにおける分散保証の基礎を形成する。
ポリシーカードは、手持ちのエンジニアリングプラクティスとハイレベルガバナンスを統合するための実践的なメカニズムを提供し、大規模に説明可能な自律性を可能にする。
関連論文リスト
- Are Agents Just Automata? On the Formal Equivalence Between Agentic AI and the Chomsky Hierarchy [4.245979127318219]
本稿では,現代エージェントAIシステムのアーキテクチャクラスと階層の抽象機械との形式的等価性を確立する。
単純な反射エージェントは有限オートマタと等価であり、階層的なタスク分解エージェントはプッシュダウンオートマタと等価であり、リフレクションに読み取り/書き込み可能なメモリを使用するエージェントはTMと等価であることを示す。
論文 参考訳(メタデータ) (2025-10-27T16:22:02Z) - Analyzing and Internalizing Complex Policy Documents for LLM Agents [53.14898416858099]
大規模言語モデル(LLM)ベースのエージェントシステムは、多様なビジネスルールをコードするコンテキスト内ポリシー文書に依存している。
これは、パフォーマンスを保ちながら、ポリシー文書をモデルプリエントに組み込む内部化手法の開発を動機付けます。
CC-Genは4つのレベルにまたがる制御可能な複雑度を持つエージェントベンチマークジェネレータである。
論文 参考訳(メタデータ) (2025-10-13T16:30:07Z) - The AI Agent Code of Conduct: Automated Guardrail Policy-as-Prompt Synthesis [0.19336815376402716]
本稿では,非構造化設計文書の検証可能なリアルタイムガードレールへの翻訳を自動化する新しいフレームワークを提案する。
『Promptとしての政治』では、自然言語政策の解釈と実施にLarge Language Models(LLMs)を使用している。
さまざまなアプリケーションにまたがってアプローチを検証することで、スケーラブルで監査可能なパイプラインを実証しています。
論文 参考訳(メタデータ) (2025-09-28T17:36:52Z) - ARPaCCino: An Agentic-RAG for Policy as Code Compliance [0.18472148461613155]
ARPaCCinoは、Large Language Models、Retrieval-Augmented-Generation、ツールベースのバリデーションを組み合わせたエージェントシステムである。
公式なRegoルールを生成し、IaC準拠を評価し、IaC設定を反復的に洗練し、適合性を保証する。
本研究では,PACの自動化,信頼性,アクセシビリティを高めるために,エージェントRAGアーキテクチャの可能性を強調した。
論文 参考訳(メタデータ) (2025-07-11T12:36:33Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Architecture for Simulating Behavior Mode Changes in Norm-Aware Autonomous Agents [0.0]
本稿では,標準知能エージェントの動作をシミュレートするアーキテクチャを提案する。
エージェントの行動モードを標準的行動からリスクの高い行動モードに更新することは、エージェントが時間に敏感な救助活動に関与している場合に関係する可能性がある。
論文 参考訳(メタデータ) (2025-02-13T11:49:02Z) - Conformal Policy Learning for Sensorimotor Control Under Distribution
Shifts [61.929388479847525]
本稿では,センサコントローラの観測値の分布変化を検知・応答する問題に焦点をあてる。
鍵となる考え方は、整合量子を入力として取ることができるスイッチングポリシーの設計である。
本稿では, 基本方針を異なる特性で切り替えるために, 共形量子関数を用いてこのようなポリシーを設計する方法を示す。
論文 参考訳(メタデータ) (2023-11-02T17:59:30Z) - A General Framework for Verification and Control of Dynamical Models via Certificate Synthesis [54.959571890098786]
システム仕様を符号化し、対応する証明書を定義するためのフレームワークを提供する。
コントローラと証明書を形式的に合成する自動化手法を提案する。
我々のアプローチは、ニューラルネットワークの柔軟性を利用して、制御のための安全な学習の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2023-09-12T09:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。