論文の概要: AI TIPS 2.0: A Comprehensive Framework for Operationalizing AI Governance
- arxiv url: http://arxiv.org/abs/2512.09114v1
- Date: Tue, 09 Dec 2025 20:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.320026
- Title: AI TIPS 2.0: A Comprehensive Framework for Operationalizing AI Governance
- Title(参考訳): AI TIPS 2.0: AIガバナンスを運用するための総合的なフレームワーク
- Authors: Pamela Gupta,
- Abstract要約: 組織はユースケースレベルでの不適切なリスク評価に苦しむ。
ISO 42001やNIST AI RMFのような既存のフレームワークは高い概念レベルを維持している。
開発ライフサイクル全体にAIプラクティスを組み込むための体系的なアプローチはない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The deployment of AI systems faces three critical governance challenges that current frameworks fail to adequately address. First, organizations struggle with inadequate risk assessment at the use case level, exemplified by the Humana class action lawsuit and other high impact cases where an AI system deployed to production exhibited both significant bias and high error rates, resulting in improper healthcare claim denials. Each AI use case presents unique risk profiles requiring tailored governance, yet most frameworks provide one size fits all guidance. Second, existing frameworks like ISO 42001 and NIST AI RMF remain at high conceptual levels, offering principles without actionable controls, leaving practitioners unable to translate governance requirements into specific technical implementations. Third, organizations lack mechanisms for operationalizing governance at scale, with no systematic approach to embed trustworthy AI practices throughout the development lifecycle, measure compliance quantitatively, or provide role-appropriate visibility from boards to data scientists. We present AI TIPS, Artificial Intelligence Trust-Integrated Pillars for Sustainability 2.0, update to the comprehensive operational framework developed in 2019,four years before NIST's AI Risk Management Framework, that directly addresses these challenges.
- Abstract(参考訳): AIシステムのデプロイは、現在のフレームワークが適切に対処できない3つの重要なガバナンス課題に直面します。
第一に、組織はユースケースレベルでの不適切なリスク評価に苦慮し、Humana集団の訴訟や、プロダクションにデプロイされたAIシステムが重大なバイアスと高いエラー率の両方を示し、不適切な医療請求の否定をもたらす、その他の高影響ケースで例示される。
各AIユースケースには、カスタマイズされたガバナンスを必要とするユニークなリスクプロファイルがあるが、ほとんどのフレームワークは、すべてのガイダンスに適合する1つのサイズを提供する。
第2に、ISO 42001やNIST AI RMFのような既存のフレームワークは高い概念レベルを維持しており、実行可能なコントロールを持たない原則を提供しており、実践者はガバナンス要件を特定の技術的実装に翻訳することができない。
第三に、組織は大規模にガバナンスを運用するメカニズムが欠如しており、開発ライフサイクル全体を通して信頼できるAIプラクティスを組み込んだり、コンプライアンスを定量的に測定したり、ボードからデータサイエンティストに役割にふさわしい可視性を提供するための体系的なアプローチは存在しない。
我々は、AI TIPS、AI Trust-Integrated Pillars for Sustainability 2.0、NISTのAI Risk Management Frameworkの4年前、2019年に開発された包括的な運用フレームワークを更新し、これらの課題に直接対処する。
関連論文リスト
- International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management [115.92752850425272]
2025年の国際AI安全レポートの第2の更新は、この1年で汎用AIリスク管理の新しい展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
論文 参考訳(メタデータ) (2025-11-25T03:12:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。