論文の概要: Trustworthy AI Posture (TAIP): A Framework for Continuous AI Assurance of Agentic Systems at Horizontal and Vertical scale
- arxiv url: http://arxiv.org/abs/2603.03340v1
- Date: Sun, 15 Feb 2026 10:49:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.170042
- Title: Trustworthy AI Posture (TAIP): A Framework for Continuous AI Assurance of Agentic Systems at Horizontal and Vertical scale
- Title(参考訳): 信頼できるAI姿勢(TAIP):水平および垂直スケールでのエージェントシステムの継続的AI保証のためのフレームワーク
- Authors: Guy Lupo, Bao Quoc Vo, Natania Locke,
- Abstract要約: ポイント・イン・タイムの文書ベースの監査では、決定論的でない振る舞いには対応できない。
垂直的には、ガバナンスとコントロールの義務は、フレームワークが運用できるものよりも速く変化します。
リスクベースの規制は、現在進行中のコントロールの妥当性と効果を示す必要がある。
本稿では,信頼度を静的証明書ではなく,連続的に発生する信号として再設定する。
- 参考スコア(独自算出の注目度): 1.0896567381206714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of autonomous, high-velocity Agentic AI systems is creating an internal assurance scalability crisis. Point-in-time, document-based audits cannot keep pace with non deterministic behaviour and distributed deployments of agents across rapidly evolving environments. The crisis is dual-scale: vertically, governance and control obligations change faster than frameworks can operationalise them; horizontally, assurance mechanisms fail to scale across complex, heterogeneous systems and evidence sources. Risk-based regulation now requires organisations to demonstrate ongoing control adequacy and effectiveness, yet existing Trustworthy AI Assurance and Audit frameworks remain fragmented and largely manual. Drawing on the evolution of cybersecurity posture management, this paper reframes trustworthiness as a continuously generated signal rather than a static certificate. It contributes 1) A Trustworthy AI Assurance Ontology modelling the end-to-end pathway from regulatory obligation to verifiable evidence 2) An ontology-driven, evidence-gated benchmark of thirteen leading frameworks, revealing a posture readiness gap 3) The Trustworthy AI Posture (TAIP) framework, which operationalises the NIST AI RMF Test,Evaluate,Verify,Validate (TEVV) cycle as reusable AI Assurance Objects. TAIP decouples policy content ('what') from execution semantics ('how'), enabling composable, automatable assurance across jurisdictions and agentic systems. Evidence from heterogeneous tools is normalised and recursively aggregated into posture at claim, system, organisational, and ecosystem levels. A use case mapping Australian AI Guardrails to Microsoft 365 Copilot demonstrates claim decomposition, evidence binding, and posture computation in practice. By standardising execution while allowing policy variation, TAIP enables scalable, machine-speed trust signal generation.
- Abstract(参考訳): 自律的で高速なエージェントAIシステムの出現は、内部の保証スケーラビリティの危機を生み出している。
ポイント・イン・タイムのドキュメントベースの監査では、非決定論的動作や、急速に進化する環境にまたがるエージェントの分散デプロイメントにペースを維持できない。
垂直的には、ガバナンスとコントロールの義務は、フレームワークがそれらを運用できるよりも早く変化します。
リスクベースの規制は、現在進行中のコントロールの妥当性と効果を示す必要があるが、既存のTrustworthy AI AssuranceとAuditフレームワークは断片的であり、大部分が手作業である。
本論文は,サイバーセキュリティ姿勢管理の進化に基づき,信頼度を静的認証ではなく,継続的に発生する信号として再設定する。
貢献する。
1)信頼できるAI保証オントロジーは、規制義務から検証済みの証拠までのエンドツーエンドの経路をモデル化する
2) 姿勢整合性のギャップを明らかにするオントロジー----エビデンス-ゲートによる13の主要なフレームワークのベンチマーク
3) NIST AI RMF Test,Evaluate,Verify,Validate(TEVV)サイクルを再利用可能なAI保証オブジェクトとして運用するTrustworthy AI Posture(TAIP)フレームワーク。
TAIPはポリシー内容("What')を実行意味論("how")から切り離し、管轄区域やエージェントシステム間で構成可能で自動化可能な保証を可能にする。
不均一なツールからの証拠は正常化され、クレーム、システム、組織、エコシステムレベルで姿勢に再帰的に集約されます。
オーストラリアのAIガードレールをMicrosoft 365 Copilotにマッピングするユースケースでは、実際にはクレームの分解、エビデンスバインディング、姿勢計算が実演されている。
ポリシーの変動を許容しながら実行を標準化することにより、TAIPはスケーラブルでマシンスピードの信頼信号生成を可能にする。
関連論文リスト
- The Alignment Flywheel: A Governance-Centric Hybrid MAS for Architecture-Agnostic Safety [5.399984738447277]
本稿では、アライメントフライホイールをガバナンス中心のハイブリッドMASアーキテクチャとして定式化する。
執行層は実行時に明確なリスクポリシーを適用し、ガバナンスMASは監査、不確実性駆動による検証、バージョン管理による改善を通じてOracleを監督します。
アーキテクチャはProposerとSafety Oracleの両方に関して実装に依存せず、実行時ゲーティング、監査、署名されたパッチ、ステージングロールアウトに必要な役割、アーティファクト、プロトコル、リリースセマンティクスを指定する。
論文 参考訳(メタデータ) (2026-02-28T00:48:06Z) - MAIF: Enforcing AI Trust and Provenance with an Artifact-Centric Agentic Paradigm [0.5495755145898128]
現在のAIシステムは、監査証跡、証明追跡、EU AI Actのような新たな規則で要求される説明可能性に欠ける不透明なデータ構造で運用されている。
動作は一時的なタスクではなく、永続的で検証可能なデータアーティファクトによって駆動される、アーティファクト中心のAIエージェントパラダイムを提案する。
プロダクション対応実装では、超高速ストリーミング(2,720.7MB/s)、最適化されたビデオ処理(1,342MB/s)、エンタープライズレベルのセキュリティが示されている。
論文 参考訳(メタデータ) (2025-11-19T04:10:32Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。