論文の概要: MI9 -- Agent Intelligence Protocol: Runtime Governance for Agentic AI Systems
- arxiv url: http://arxiv.org/abs/2508.03858v1
- Date: Tue, 05 Aug 2025 19:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.421935
- Title: MI9 -- Agent Intelligence Protocol: Runtime Governance for Agentic AI Systems
- Title(参考訳): MI9 -- Agent Intelligence Protocol:エージェントAIシステムのランタイムガバナンス
- Authors: Charles L. Wang, Trisha Singhal, Ameya Kelkar, Jason Tuo,
- Abstract要約: エージェントAIシステムの安全性とアライメントのための、最初の完全に統合されたランタイムガバナンスフレームワークであるMI9を紹介します。
MI9は、エージェントリスクインデックス、エージェントセマンティックテレメトリキャプチャー、継続的な認可監視、FSM(Finite-State-Machine)ベースのコンフォーマンスエンジン、目標条件ドリフト検出、および段階的封じ込め戦略の6つの統合コンポーネントを通じてリアルタイム制御を導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI systems capable of reasoning, planning, and executing actions present fundamentally distinct governance challenges compared to traditional AI models. Unlike conventional AI, these systems exhibit emergent and unexpected behaviors during runtime, introducing novel agent-related risks that cannot be fully anticipated through pre-deployment governance alone. To address this critical gap, we introduce MI9, the first fully integrated runtime governance framework designed specifically for safety and alignment of agentic AI systems. MI9 introduces real-time controls through six integrated components: agency-risk index, agent-semantic telemetry capture, continuous authorization monitoring, Finite-State-Machine (FSM)-based conformance engines, goal-conditioned drift detection, and graduated containment strategies. Operating transparently across heterogeneous agent architectures, MI9 enables the systematic, safe, and responsible deployment of agentic systems in production environments where conventional governance approaches fall short, providing the foundational infrastructure for safe agentic AI deployment at scale. Detailed analysis through a diverse set of scenarios demonstrates MI9's systematic coverage of governance challenges that existing approaches fail to address, establishing the technical foundation for comprehensive agentic AI oversight.
- Abstract(参考訳): アクションの推論、計画、実行が可能なエージェントAIシステムは、従来のAIモデルと根本的に異なるガバナンス課題を提示する。
従来のAIとは異なり、これらのシステムは実行中に突発的で予期しない振る舞いを示し、デプロイ前ガバナンスだけでは期待できない新しいエージェント関連のリスクを導入します。
この重要なギャップに対処するために、エージェントAIシステムの安全性と整合性に特化して設計された、最初の完全に統合されたランタイムガバナンスフレームワークであるMI9を紹介します。
MI9は、エージェントリスクインデックス、エージェントセマンティックテレメトリキャプチャー、継続的な認可監視、FSM(Finite-State-Machine)ベースのコンフォーマンスエンジン、目標条件ドリフト検出、および段階的封じ込め戦略の6つの統合コンポーネントを通じてリアルタイム制御を導入している。
MI9は異種エージェントアーキテクチャを透過的に運用することにより、従来のガバナンスアプローチが不足している運用環境におけるエージェントシステムのシステマティックで安全で責任あるデプロイメントを可能にし、大規模にエージェントAIをデプロイするための基盤となるインフラストラクチャを提供する。
さまざまなシナリオの詳細な分析は、MI9が既存のアプローチで対処できないガバナンス上の課題を体系的にカバーしていることを示し、包括的なエージェントAI監視の技術的基盤を確立している。
関連論文リスト
- SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [2.462408812529728]
本総説では, LLMに基づくエージェントマルチエージェントシステム (AMAS) の文脈における, textbfTrust, Risk, and Security Management (TRiSM) の構造解析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、説明可能性、モデルOps、セキュリティ、プライバシ、ガバナンスの4つの主要な柱を中心に構成された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Enterprise-Grade Security for the Model Context Protocol (MCP): Frameworks and Mitigation Strategies [0.0]
Model Context Protocol (MCP) は、人工知能(AI)システムのための標準化されたフレームワークを提供する。
本稿では,エンタープライズグレードの緩和フレームワークを提供するため,MPPアーキテクチャの基礎研究と予備的セキュリティアセスメントについて述べる。
論文 参考訳(メタデータ) (2025-04-11T15:25:58Z) - Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective [0.0]
大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント設定の拡大は、効果的なガバナンスポリシや監視、コントロールプロトコルへの関心の高まりを招いている。
我々は, LLMエージェントとその拡張システムの委譲利用による潜在的な責任問題について, プリンシパル・エージェントの観点から分析する。
論文 参考訳(メタデータ) (2025-04-04T08:10:02Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。