論文の概要: OpenPort Protocol: A Security Governance Specification for AI Agent Tool Access
- arxiv url: http://arxiv.org/abs/2602.20196v1
- Date: Sun, 22 Feb 2026 05:16:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.457076
- Title: OpenPort Protocol: A Security Governance Specification for AI Agent Tool Access
- Title(参考訳): OpenPort Protocol: AIエージェントツールアクセスのためのセキュリティガバナンス仕様
- Authors: Genliang Zhu, Chu Wang, Ziyuan Wang, Zhida Li, Qiang Li,
- Abstract要約: 本稿では,セキュアなサーバサイドゲートウェイを通じてアプリケーションツールを公開するためのガバナンスファースト仕様であるOpenPort Protocolを紹介する。
OpenPortは、認可に依存した発見、機械操作可能なテキストタグによる安定した応答エンベロープ、および統合証明書、スコープ化されたパーミッション、ABACスタイルのポリシー制約を組み合わせた認可モデルを定義する。
書き込み操作のために、OpenPortは、ドラフト作成とヒューマンレビューのデフォルトとなるリスクゲートライフサイクルを規定し、明示的なポリシーの下でタイムバウンド自動実行をサポートし、事前のインパクトバインディングやイデペント性を含むリスクの高い保護を強制する。
- 参考スコア(独自算出の注目度): 11.289770127178882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents increasingly require direct, structured access to application data and actions, but production deployments still struggle to express and verify the governance properties that matter in practice: least-privilege authorization, controlled write execution, predictable failure handling, abuse resistance, and auditability. This paper introduces OpenPort Protocol (OPP), a governance-first specification for exposing application tools through a secure server-side gateway that is model- and runtime-neutral and can bind to existing tool ecosystems. OpenPort defines authorization-dependent discovery, stable response envelopes with machine-actionable \texttt{agent.*} reason codes, and an authorization model combining integration credentials, scoped permissions, and ABAC-style policy constraints. For write operations, OpenPort specifies a risk-gated lifecycle that defaults to draft creation and human review, supports time-bounded auto-execution under explicit policy, and enforces high-risk safeguards including preflight impact binding and idempotency. To address time-of-check/time-of-use drift in delayed approval flows, OpenPort also specifies an optional State Witness profile that revalidates execution-time preconditions and fails closed on state mismatch. Operationally, the protocol requires admission control (rate limits/quotas) with stable 429 semantics and structured audit events across allow/deny/fail paths so that client recovery and incident analysis are deterministic. We present a reference runtime and an executable governance toolchain (layered conformance profiles, negative security tests, fuzz/abuse regression, and release-gate scans) and evaluate the core profile at a pinned release tag using artifact-based, externally reproducible validation.
- Abstract(参考訳): AIエージェントはますます、アプリケーションデータやアクションへの直接的かつ構造化されたアクセスを必要としていますが、本番環境のデプロイメントでは、最低限の権限、制御された書き込み実行、予測可能な障害処理、不正な抵抗、監査可能性といった、実際に重要なガバナンスプロパティの表現と検証に苦慮しています。
本稿では,セキュアなサーバサイドゲートウェイを通じてアプリケーションツールを公開するためのガバナンスファースト仕様であるOpenPort Protocol(OPP)を紹介する。
OpenPortは、マシンアクション可能な \texttt{agent で、認可依存のディスカバリ、安定した応答エンベロープを定義する。
統合認証、スコープ化されたパーミッション、ABACスタイルのポリシー制約を組み合わせた認証モデル。
書き込み操作に関して、OpenPortは、ドラフト作成とヒューマンレビューのデフォルトとなるリスクゲートライフサイクルを規定し、明示的なポリシの下でタイムバウンド自動実行をサポートし、事前のインパクトバインディングやイデペント性を含むリスクの高い保護を強制する。
遅延承認フローにおけるチェック時間/使用時間のドリフトに対処するため、OpenPortは、実行時の事前条件を再検証し、状態ミスマッチでクローズする、オプションのState Witnessプロファイルも定義している。
運用的には、クライアントのリカバリとインシデント分析が決定論的になるように、安定した429のセマンティクスと、 let/deny/failパスにまたがる構造化された監査イベントによる入出力制御(レート制限/クォータ)が必要である。
本稿では、参照ランタイムと実行可能ガバナンスツールチェーン(レイヤ適合プロファイル、負のセキュリティテスト、ファズ/アビュース回帰、リリースゲートスキャン)を提示し、アーティファクトベースの外部再現可能なバリデーションを用いて、ピン付きリリースタグでコアプロファイルを評価する。
関連論文リスト
- Autonomous Action Runtime Management(AARM):A System Specification for Securing AI-Driven Actions at Runtime [0.0]
本稿では,AI駆動型動作を実行時にセキュアにするためのオープン仕様であるAutonomous Action Management(AARM)を紹介する。
AARMは実行前にアクションをインターセプトし、セッションコンテキストを蓄積し、ポリシーと意図の整合性を評価し、承認決定を強制し、法医学的な再構築のための未確認のレシートを記録する。
AARMはモデルに依存しない、フレームワークに依存しない、ベンダーに依存しない、アクション実行を安定したセキュリティ境界として扱う。
論文 参考訳(メタデータ) (2026-02-10T05:57:30Z) - Emergence-as-Code for Self-Governing Reliable Systems [0.0]
本稿では,エネルジェンス・アズ・コード(Emergence-as-Code,EmaC)を提案する。
EmaC仕様は、トラベルインテント(オブジェクト、制御フロー演算子、アクションの許容)を宣言し、SLOとテレメトリにバインドする。
実行時推論コンポーネントは、運用成果物(トレースやトラフィック設定など)を消費し、証明と信頼性を備えた候補走行モデルを合成する。
匿名化されたアーティファクトリポジトリは、実行サンプル仕様と生成された出力を提供する。
論文 参考訳(メタデータ) (2026-02-05T09:04:33Z) - Secure Tool Manifest and Digital Signing Solution for Verifiable MCP and LLM Pipelines [5.979408039210097]
大規模言語モデル(LLM)は、医療や金融機関のデータ分析のような繊細な分野にますます採用されている。
Model Context Protocol (MCP)のような既存の制御メカニズムは、ツール呼び出しのコンプライアンスポリシーを定義するが、モデルのアクションの検証と透過的な検証は欠如している。
モデルコンテキストプロトコルの構造化およびセキュリティに配慮した拡張であるSecure Tool Manifest and Digital Signing Frameworkを提案する。
論文 参考訳(メタデータ) (2026-01-30T16:22:21Z) - Building a Robust Risk-Based Access Control System to Combat Ransomware's Capability to Encrypt: A Machine Learning Approach [0.510691253204425]
ランサムウェアの中核機能、無許可の暗号化は、正当な使用を妨害することなく悪意のある暗号化活動を識別しブロックする制御を要求する。
我々は、機械学習推論と必須アクセス制御を結合して、Linux上の暗号化をリアルタイムに規制する確率論的、リスクベースのアクセス制御アーキテクチャを提案する。
論文 参考訳(メタデータ) (2026-01-23T14:48:35Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Trace: Securing Smart Contract Repository Against Access Control Vulnerability [58.02691083789239]
GitHubはソースコード、ドキュメント、設定ファイルを含む多数のスマートコントラクトリポジトリをホストしている。
サードパーティの開発者は、カスタム開発中にこれらのリポジトリからコードを参照、再利用、フォークすることが多い。
スマートコントラクトの脆弱性を検出する既存のツールは、複雑なリポジトリを扱う能力に制限されている。
論文 参考訳(メタデータ) (2025-10-22T05:18:28Z) - Adaptive Attacks on Trusted Monitors Subvert AI Control Protocols [80.68060125494645]
プロトコルとモニタモデルを知っている信頼できないモデルによるアダプティブアタックについて検討する。
我々は、攻撃者がモデル出力に公知またはゼロショットプロンプトインジェクションを埋め込む単純な適応攻撃ベクトルをインスタンス化する。
論文 参考訳(メタデータ) (2025-10-10T15:12:44Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - ETDI: Mitigating Tool Squatting and Rug Pull Attacks in Model Context Protocol (MCP) by using OAuth-Enhanced Tool Definitions and Policy-Based Access Control [0.0]
モデルコンテキストプロトコル(MCP)は、大規模言語モデル(LLM)の機能拡張において重要な役割を果たす。
標準の MCP 仕様では,特に Tool Poisoning や Rug Pull 攻撃など,重大なセキュリティ上の脆弱性が報告されている。
本稿では,MPPの強化を目的としたセキュリティ拡張であるETDI(Enhanced Tool Definition Interface)を紹介する。
論文 参考訳(メタデータ) (2025-06-02T05:22:38Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。