論文の概要: The PBSAI Governance Ecosystem: A Multi-Agent AI Reference Architecture for Securing Enterprise AI Estates
- arxiv url: http://arxiv.org/abs/2602.11301v1
- Date: Wed, 11 Feb 2026 19:21:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.504049
- Title: The PBSAI Governance Ecosystem: A Multi-Agent AI Reference Architecture for Securing Enterprise AI Estates
- Title(参考訳): PBSAIガバナンスエコシステム: エンタープライズAIエステートをセキュアにするためのマルチエージェントAIリファレンスアーキテクチャ
- Authors: John M. Willis,
- Abstract要約: 本稿では,PBSAI(Practitioners Blueprint for Secure AI)ガバナンスエコシステムについて紹介する。
PBSAIは、エンタープライズおよびハイパースケールAIエステートを確保するためのマルチエージェント参照アーキテクチャである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Enterprises are rapidly deploying large language models, retrieval augmented generation pipelines, and tool using agents into production, often on shared high performance computing clusters and cloud accelerator platforms that also support defensive analytics. These systems increasingly function not as isolated models but as AI estates: socio technical systems spanning models, agents, data pipelines, security tooling, human workflows, and hyperscale infrastructure. Existing governance and security frameworks, including the NIST AI Risk Management Framework and systems security engineering guidance, articulate principles and risk functions but do not provide implementable architectures for multi agent, AI enabled cyber defense. This paper introduces the Practitioners Blueprint for Secure AI (PBSAI) Governance Ecosystem, a multi agent reference architecture for securing enterprise and hyperscale AI estates. PBSAI organizes responsibilities into a twelve domain taxonomy and defines bounded agent families that mediate between tools and policy through shared context envelopes and structured output contracts. The architecture assumes baseline enterprise security capabilities and encodes key systems security techniques, including analytic monitoring, coordinated defense, and adaptive response. A lightweight formal model of agents, context envelopes, and ecosystem level invariants clarifies the traceability, provenance, and human in the loop guarantees enforced across domains. We demonstrate alignment with NIST AI RMF functions and illustrate application in enterprise SOC and hyperscale defensive environments. PBSAI is proposed as a structured, evidence centric foundation for open ecosystem development and future empirical validation.
- Abstract(参考訳): 大企業は、大規模言語モデルを迅速にデプロイし、拡張生成パイプラインを検索し、エージェントを本番環境に使用するためのツールを提供している。
モデル、エージェント、データパイプライン、セキュリティツール、ヒューマンワークフロー、ハイパースケールインフラストラクチャにまたがる社会技術システムである。
NIST AI Risk Management Frameworkやシステムセキュリティエンジニアリングガイダンスを含む既存のガバナンスおよびセキュリティフレームワークは、原則とリスク機能を明確にしているが、マルチエージェントのための実装可能なアーキテクチャを提供していない。
本稿では,エンタープライズおよびハイパースケールAIエステートの確保を目的としたマルチエージェント参照アーキテクチャであるPBSAIガバナンスエコシステムについて紹介する。
PBSAIは責任を12の領域に分類し、共有コンテキストエンベロープと構造化出力契約を通じてツールとポリシーの間を仲介する境界エージェントファミリーを定義する。
このアーキテクチャは、基本的なエンタープライズセキュリティ機能を前提として、分析監視、協調防御、適応応答など、主要なシステムセキュリティ技術をエンコードする。
エージェント、コンテキストエンベロープ、エコシステムレベルの不変性の軽量な形式モデルは、ドメイン間で強制されるループ保証におけるトレーサビリティ、証明、および人間を明らかにする。
NIST AI RMF 関数との整合性を実証し,企業 SOC および超大規模防衛環境における適用例を示す。
PBSAIはオープンエコシステム開発と将来の実証的検証のための構造化されたエビデンス中心の基盤として提案されている。
関連論文リスト
- Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - MegaFlow: Large-Scale Distributed Orchestration System for the Agentic Era [74.42509044145417]
MegaFlowは、エージェント環境ワークロードの効率的なスケジューリング、リソース割り当て、きめ細かいタスク管理を可能にする、大規模な分散オーケストレーションシステムである。
エージェントのトレーニングデプロイメントでは、MegaFlowは、高いシステムの安定性を維持しながら、数万の並行エージェントタスクを編成し、効率的なリソース利用を実現しています。
論文 参考訳(メタデータ) (2026-01-12T13:25:33Z) - Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - Cisco Integrated AI Security and Safety Framework Report [3.162988913169078]
本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
論文 参考訳(メタデータ) (2025-12-15T02:12:12Z) - The Evolution of Agentic AI in Cybersecurity: From Single LLM Reasoners to Multi-Agent Systems and Autonomous Pipelines [0.0]
サイバーセキュリティはエージェントAIのアーリーアダプターの1つになった。
この調査は、サイバーセキュリティにおけるエージェントAIの5世代分類を提示する。
論文 参考訳(メタデータ) (2025-12-07T05:10:16Z) - Formalizing the Safety, Security, and Functional Properties of Agentic AI Systems [10.734711935895225]
本稿では2つの基礎モデルからなるエージェントAIシステムのためのモデリングフレームワークを提案する。
1つ目はホストエージェントモデルで、ユーザと対話するトップレベルのエンティティを形式化し、タスクを分解し、外部エージェントやツールを活用して実行をオーケストレーションする。
第2のタスクライフサイクルモデルでは、個々のサブタスクの状態と、作成から完了までの遷移を詳述し、タスク管理とエラー処理の詳細なビューを提供します。
論文 参考訳(メタデータ) (2025-10-15T22:02:30Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Using the NANDA Index Architecture in Practice: An Enterprise Perspective [9.707223291705601]
自律型AIエージェントの普及は、従来のWebアーキテクチャから協調的なインテリジェントシステムへのパラダイムシフトを表している。
本稿では,セキュアで信頼性が高く,相互運用可能なAIエージェントエコシステムの基盤要件に対処する包括的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-05T05:27:27Z) - Agentic Satellite-Augmented Low-Altitude Economy and Terrestrial Networks: A Survey on Generative Approaches [76.12691010182802]
本調査は,衛星搭載低高度経済と地上ネットワーク(SLAETN)におけるエージェント人工知能(AI)の実現に焦点をあてる。
SLAETNのアーキテクチャと特徴を紹介するとともに,衛星,空中,地上コンポーネントの統合において生じる課題を分析する。
これらのモデルが,コミュニケーション強化,セキュリティとプライバシ保護,インテリジェントな衛星タスクという,3つの領域にわたるエージェント機能をどのように強化するかを検討する。
論文 参考訳(メタデータ) (2025-07-19T14:07:05Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [8.683314804719506]
本稿では,エージェントマルチエージェントシステム(AMAS)における信頼・リスク・セキュリティマネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、Textit Explainability、ModelOps、Security、Privacy、Textittheirのガバナンスガバナンスといった重要な柱を中心に構築された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
調整失敗から調整失敗まで、エージェントAIのユニークな脅威と脆弱性を捉えるためにリスク分類法が提案されている。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - Internet of Agents: Fundamentals, Applications, and Challenges [68.9543153075464]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。