論文の概要: Governance-as-a-Service: A Multi-Agent Framework for AI System Compliance and Policy Enforcement
- arxiv url: http://arxiv.org/abs/2508.18765v2
- Date: Wed, 27 Aug 2025 10:16:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 12:43:57.507384
- Title: Governance-as-a-Service: A Multi-Agent Framework for AI System Compliance and Policy Enforcement
- Title(参考訳): ガバナンス・アズ・ア・サービス:AIシステムコンプライアンスとポリシー強化のためのマルチエージェントフレームワーク
- Authors: Suyash Gaurav, Jukka Heikkonen, Jatin Chaudhary,
- Abstract要約: ガバナンス・アズ・ア・サービス(Government-as-a-Service:G)は、エージェントのアウトプットを実行時に規制するポリシー駆動の執行層である。
Gは宣言的ルールと、違反のコンプライアンスと深刻度に基づいてエージェントをスコアするTrust Factorメカニズムを採用している。
その結果、Gはスループットを保ちながら高いリスクの振る舞いを確実にブロックまたはリダイレクトすることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI systems evolve into distributed ecosystems with autonomous execution, asynchronous reasoning, and multi-agent coordination, the absence of scalable, decoupled governance poses a structural risk. Existing oversight mechanisms are reactive, brittle, and embedded within agent architectures, making them non-auditable and hard to generalize across heterogeneous deployments. We introduce Governance-as-a-Service (GaaS): a modular, policy-driven enforcement layer that regulates agent outputs at runtime without altering model internals or requiring agent cooperation. GaaS employs declarative rules and a Trust Factor mechanism that scores agents based on compliance and severity-weighted violations. It enables coercive, normative, and adaptive interventions, supporting graduated enforcement and dynamic trust modulation. To evaluate GaaS, we conduct three simulation regimes with open-source models (LLaMA3, Qwen3, DeepSeek-R1) across content generation and financial decision-making. In the baseline, agents act without governance; in the second, GaaS enforces policies; in the third, adversarial agents probe robustness. All actions are intercepted, evaluated, and logged for analysis. Results show that GaaS reliably blocks or redirects high-risk behaviors while preserving throughput. Trust scores track rule adherence, isolating and penalizing untrustworthy components in multi-agent systems. By positioning governance as a runtime service akin to compute or storage, GaaS establishes infrastructure-level alignment for interoperable agent ecosystems. It does not teach agents ethics; it enforces them.
- Abstract(参考訳): AIシステムが自律実行、非同期推論、マルチエージェント調整を備えた分散エコシステムへと進化するにつれて、スケーラブルで分離されたガバナンスの欠如は構造的なリスクをもたらす。
既存の監視メカニズムは反応性があり、脆く、エージェントアーキテクチャに埋め込まれているため、不均一なデプロイメントをまたがって監査が不可能で、一般化が難しい。
ガバナンス・アズ・ア・サービス(GaaS:Governance-as-a-Service)は、モデル内部を変更することなく実行時にエージェント出力を規制したり、エージェントの協力を必要としたりするモジュール型のポリシー駆動の執行層である。
GaaSは宣言的ルールと、コンプライアンスと重大度重み付け違反に基づいてエージェントをスコアするTrust Factorメカニズムを採用している。
強制的、規範的、適応的な介入を可能にし、段階的な執行と動的信頼変調をサポートする。
GaaSを評価するため,オープンソースモデル(LLaMA3,Qwen3,DeepSeek-R1)を用いてコンテンツ生成と財務意思決定の3つのシミュレーションを行う。
ベースラインでは、エージェントはガバナンスなしで行動し、第二に、GaaSはポリシーを実行し、第三に、敵エージェントは堅牢性を調査する。
すべてのアクションはインターセプトされ、評価され、分析のためにログされる。
その結果、GaaSはスループットを維持しながら、ハイリスクな振る舞いを確実にブロックまたはリダイレクトします。
トラストは、マルチエージェントシステムにおいて、ルールの遵守、分離、不信なコンポーネントのペナルティ化をトラックする。
GaaSは、コンピューティングやストレージに似たランタイムサービスとしてガバナンスを位置づけることで、相互運用可能なエージェントエコシステムのためのインフラストラクチャレベルのアライメントを確立します。
倫理教育は行わない。
関連論文リスト
- From Cloud-Native to Trust-Native: A Protocol for Verifiable Multi-Agent Systems [7.002091295810318]
エージェントインフラストラクチャに直接構造保証を組み込むプロトコルであるTrustTrackを導入する。
TrustTrackは、知的エージェントが組織や司法機関をまたいでどのように機能するかを再設定する。
Cloud -> AI -> Agent -> Trust transitionは、自律システムのための次のアーキテクチャレイヤである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-07-25T04:38:38Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - AI-Supported Platform for System Monitoring and Decision-Making in Nuclear Waste Management with Large Language Models [1.6795461001108096]
本稿では,大規模言語モデル(LLM)と文書検索機構を統合したマルチエージェント検索・拡張生成(RAG)システムを提案する。
このシステムは、規制決定が事実上基礎を保ち、進化する規制フレームワークに動的に適応することを保証する。
論文 参考訳(メタデータ) (2025-05-27T20:29:53Z) - Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - A Formal Framework for Reasoning about Agents' Independence in
Self-organizing Multi-agent Systems [0.7734726150561086]
本稿では,自己組織型マルチエージェントシステムの論理ベースフレームワークを提案する。
このようなシステムを検証する計算の複雑さは、標準atlの領域に近いままであることを示す。
また、制約満足問題をモデル化するためにフレームワークを使用する方法も示します。
論文 参考訳(メタデータ) (2021-05-17T07:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。