論文の概要: Toward Third-Party Assurance of AI Systems: Design Requirements, Prototype, and Early Testing
- arxiv url: http://arxiv.org/abs/2601.22424v1
- Date: Fri, 30 Jan 2026 00:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.132495
- Title: Toward Third-Party Assurance of AI Systems: Design Requirements, Prototype, and Early Testing
- Title(参考訳): AIシステムのサードパーティ保証に向けて:設計要件、プロトタイプ、早期テスト
- Authors: Rachel M. Kim, Blaine Kuehnert, Alice Lai, Kenneth Holstein, Hoda Heidari, Rayid Ghani,
- Abstract要約: 我々は,AI評価のギャップに対処する,サードパーティのAI保証フレームワークを導入する。
我々は、利害の衝突を防ぎ、プロセスの信頼性と説明責任を確保するために、第三者の保証に焦点を当てる。
私たちの発見は、AI保証フレームワークが健全で包括的で、さまざまな組織的コンテキストで使用できるという、初期の証拠を示しています。
- 参考スコア(独自算出の注目度): 16.53658640529767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Artificial Intelligence (AI) systems proliferate, the need for systematic, transparent, and actionable processes for evaluating them is growing. While many resources exist to support AI evaluation, they have several limitations. Few address both the process of designing, developing, and deploying an AI system and the outcomes it produces. Furthermore, few are end-to-end and operational, give actionable guidance, or present evidence of usability or effectiveness in practice. In this paper, we introduce a third-party AI assurance framework that addresses these gaps. We focus on third-party assurance to prevent conflict of interest and ensure credibility and accountability of the process. We begin by distinguishing assurance from audits in several key dimensions. Then, following design principles, we reflect on the shortcomings of existing resources to identify a set of design requirements for AI assurance. We then construct a prototype of an assurance process that consists of (1) a responsibility assignment matrix to determine the different levels of involvement each stakeholder has at each stage of the AI lifecycle, (2) an interview protocol for each stakeholder of an AI system, (3) a maturity matrix to assess AI systems' adherence to best practices, and (4) a template for an assurance report that draws from more mature assurance practices in business accounting. We conduct early validation of our AI assurance framework by applying the framework to two distinct AI use cases -- a business document tagging tool for downstream processing in a large private firm, and a housing resource allocation tool in a public agency -- and conducting expert validation interviews. Our findings show early evidence that our AI assurance framework is sound and comprehensive, usable across different organizational contexts, and effective at identifying bespoke issues with AI systems.
- Abstract(参考訳): 人工知能(AI)システムが普及するにつれて、それらを評価するための体系的で透明で実行可能なプロセスの必要性が高まっている。
AI評価をサポートするリソースは数多く存在するが、いくつかの制限がある。
AIシステムを設計、開発、デプロイするプロセスと、それが生み出す結果の両方に対処する人はほとんどいません。
さらに、エンド・ツー・エンドとオペレーティング、実用的なガイダンスを与えたり、実際にユーザビリティや有効性を示すものはほとんどありません。
本稿では,これらのギャップに対処するサードパーティのAI保証フレームワークを紹介する。
我々は、利害の衝突を防ぎ、プロセスの信頼性と説明責任を確保するために、第三者の保証に焦点を当てる。
私たちはまず、監査といくつかの重要な側面のアシュアランスを区別することから始めます。
そして、設計原則に従って、AI保証のための設計要件のセットを特定するために、既存のリソースの欠点を反映します。
次に,(1)AIライフサイクルの各段階における利害関係者の関与レベルを決定する責任割り当て行列,(2)AIシステムの利害関係者へのインタビュープロトコル,(3)AIシステムのベストプラクティスへの適合性を評価する成熟度行列,(4)ビジネス会計におけるより成熟度の高い保証レポートのテンプレートからなる保証プロセスのプロトタイプを構築した。
我々は、このフレームワークを2つの異なるAIユースケース(大企業の下流処理のためのビジネス文書タグ付けツール)に適用し、公共機関の住宅資源配分ツールを運用することで、AI保証フレームワークの早期検証を行い、専門家によるバリデーションのインタビューを実施します。
我々のAI保証フレームワークは健全で包括的であり、さまざまな組織的文脈で使用でき、AIシステムで発生した問題を特定するのに効果的である、という初期の証拠を示しました。
関連論文リスト
- Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [8.683314804719506]
本稿では,エージェントマルチエージェントシステム(AMAS)における信頼・リスク・セキュリティマネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、Textit Explainability、ModelOps、Security、Privacy、Textittheirのガバナンスガバナンスといった重要な柱を中心に構築された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
調整失敗から調整失敗まで、エージェントAIのユニークな脅威と脆弱性を捉えるためにリスク分類法が提案されている。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - Design of a Quality Management System based on the EU Artificial Intelligence Act [0.0]
EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
論文 参考訳(メタデータ) (2024-08-08T12:14:02Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。