論文の概要: AAGATE: A NIST AI RMF-Aligned Governance Platform for Agentic AI
- arxiv url: http://arxiv.org/abs/2510.25863v2
- Date: Mon, 03 Nov 2025 20:37:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 12:15:51.102921
- Title: AAGATE: A NIST AI RMF-Aligned Governance Platform for Agentic AI
- Title(参考訳): AAGATE: エージェントAIのためのNIST AI RMF対応ガバナンスプラットフォーム
- Authors: Ken Huang, Kyriakos Rock Lambros, Jerry Huang, Yasir Mehmood, Hammad Atta, Joshua Beck, Vineeth Sai Narajala, Muhammad Zeeshan Baig, Muhammad Aziz Ul Haq, Nadeem Shahzad, Bhavya Gupta,
- Abstract要約: AAGATEは、自律的で言語モデル駆動のエージェントが本番環境で引き起こす、ユニークなセキュリティとガバナンスの課題に対処する。
ゼロトラストサービスメッシュ、説明可能なポリシエンジン、行動分析、分散説明責任フックが組み込まれている。
- 参考スコア(独自算出の注目度): 2.430812125419517
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces the Agentic AI Governance Assurance & Trust Engine (AAGATE), a Kubernetes-native control plane designed to address the unique security and governance challenges posed by autonomous, language-model-driven agents in production. Recognizing the limitations of traditional Application Security (AppSec) tooling for improvisational, machine-speed systems, AAGATE operationalizes the NIST AI Risk Management Framework (AI RMF). It integrates specialized security frameworks for each RMF function: the Agentic AI Threat Modeling MAESTRO framework for Map, a hybrid of OWASP's AIVSS and SEI's SSVC for Measure, and the Cloud Security Alliance's Agentic AI Red Teaming Guide for Manage. By incorporating a zero-trust service mesh, an explainable policy engine, behavioral analytics, and decentralized accountability hooks, AAGATE provides a continuous, verifiable governance solution for agentic AI, enabling safe, accountable, and scalable deployment. The framework is further extended with DIRF for digital identity rights, LPCI defenses for logic-layer injection, and QSAF monitors for cognitive degradation, ensuring governance spans systemic, adversarial, and ethical risks.
- Abstract(参考訳): 本稿では、KubernetesネイティブコントロールプレーンであるAgentic AI Governance Assurance & Trust Engine(AAGATE)を紹介する。
即興的なマシンスピードシステムのための従来のアプリケーションセキュリティ(AppSec)ツールの制限を認識し、AAGATEはNIST AI Risk Management Framework(AI RMF)を運用している。
Agentic AI Threat Modeling MAESTRO framework for Map、OWASPのAIVSSとSEIのSSVC for Measureのハイブリッド、Cloud Security AllianceのAgentic AI Red Teaming Guide for Manageである。
ゼロトラストサービスメッシュ、説明可能なポリシエンジン、行動分析、分散化された説明責任フックを組み込むことで、AAGATEはエージェントAIの継続的かつ検証可能なガバナンスソリューションを提供し、安全で説明責任を持ち、スケーラブルなデプロイメントを可能にする。
このフレームワークは、デジタルアイデンティティの権利のためのDIRF、ロジック層注入のためのLPCIディフェンス、認知的劣化のためのQSAFモニターによってさらに拡張され、ガバナンスは体系的、敵対的、倫理的リスクにまたがる。
関連論文リスト
- Generative AI-Empowered Secure Communications in Space-Air-Ground Integrated Networks: A Survey and Tutorial [107.26005706569498]
宇宙航空地上統合ネットワーク(SAGIN)は、その特性上、前例のないセキュリティ上の課題に直面している。
Generative AI(GAI)は、データを合成し、セマンティクスを理解し、自律的な決定を行うことで、SAGINセキュリティを保護できる変革的アプローチである。
論文 参考訳(メタデータ) (2025-08-04T01:42:57Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [8.683314804719506]
本稿では,エージェントマルチエージェントシステム(AMAS)における信頼・リスク・セキュリティマネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、Textit Explainability、ModelOps、Security、Privacy、Textittheirのガバナンスガバナンスといった重要な柱を中心に構築された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
調整失敗から調整失敗まで、エージェントAIのユニークな脅威と脆弱性を捉えるためにリスク分類法が提案されている。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。