論文の概要: Standardized Threat Taxonomy for AI Security, Governance, and Regulatory Compliance
- arxiv url: http://arxiv.org/abs/2511.21901v1
- Date: Wed, 26 Nov 2025 20:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.291761
- Title: Standardized Threat Taxonomy for AI Security, Governance, and Regulatory Compliance
- Title(参考訳): AIセキュリティ、ガバナンス、規制コンプライアンスのための標準化された脅威分類
- Authors: Hernan Huwyler,
- Abstract要約: ランゲージ障壁」は、現在、アルゴリズム上の脆弱性に焦点を当てた技術セキュリティチームと、規制義務に対処する法律やコンプライアンスの専門家を分離している。
本研究は、量的リスクアセスメント(QRA)のために明示的に設計された構造的オントロジーであるAIシステム脅威ベクトル分類法を提案する。
このフレームワークは、AI固有のリスクを9つの重要なドメインに分類する: ミスス、ポジショニング、プライバシ、アドリアム、バイアス、信頼できないアウトプット、ドリフト、サプライチェーン、IPThreat。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accelerating deployment of artificial intelligence systems across regulated sectors has exposed critical fragmentation in risk assessment methodologies. A significant "language barrier" currently separates technical security teams, who focus on algorithmic vulnerabilities (e.g., MITRE ATLAS), from legal and compliance professionals, who address regulatory mandates (e.g., EU AI Act, NIST AI RMF). This disciplinary disconnect prevents the accurate translation of technical vulnerabilities into financial liability, leaving practitioners unable to answer fundamental economic questions regarding contingency reserves, control return-on-investment, and insurance exposure. To bridge this gap, this research presents the AI System Threat Vector Taxonomy, a structured ontology designed explicitly for Quantitative Risk Assessment (QRA). The framework categorizes AI-specific risks into nine critical domains: Misuse, Poisoning, Privacy, Adversarial, Biases, Unreliable Outputs, Drift, Supply Chain, and IP Threat, integrating 53 operationally defined sub-threats. Uniquely, each domain maps technical vectors directly to business loss categories (Confidentiality, Integrity, Availability, Legal, Reputation), enabling the translation of abstract threats into measurable financial impact. The taxonomy is empirically validated through an analysis of 133 documented AI incidents from 2025 (achieving 100% classification coverage) and reconciled against the main AI risk frameworks. Furthermore, it is explicitly aligned with ISO/IEC 42001 controls and NIST AI RMF functions to facilitate auditability.
- Abstract(参考訳): 規制分野にまたがる人工知能システムの展開が加速し、リスク評価手法において重大な断片化が露呈している。
現在、重要な"言語障壁"は、アルゴリズム上の脆弱性(例えば、MITRE ATLAS)に焦点を当てた技術セキュリティチームと、規制の義務(例えば、EU AI Act、NIST AI RMF)に対処する法律およびコンプライアンスの専門家を分離している。
この学際的な断絶は、技術的脆弱性の正確な金銭的負債への翻訳を防ぎ、実践者は緊急準備、再投資の制御、保険の露出に関する基本的な経済的問題に答えることができない。
このギャップを埋めるために、この研究は、量的リスクアセスメント(QRA)のために明示的に設計された構造化オントロジーであるAIシステム脅威ベクトル分類(AI System Threat Vector Taxonomy)を提示する。
このフレームワークは、AI固有のリスクを9つの重要なドメインに分類する: ミスス、ポジショニング、プライバシ、アドバイザリ、バイアス、信頼できないアウトプット、ドリフト、サプライチェーン、IPThreat。
各ドメインは、技術的ベクトルを直接ビジネス損失カテゴリ(信条、統合性、可用性、法、意見)にマッピングし、抽象的な脅威を計測可能な経済的影響に翻訳することを可能にする。
この分類は、2025年の133件のAIインシデント(100%の分類範囲)の分析を通じて実証的に検証され、主要なAIリスクフレームワークと照合される。
さらに、ISO/IEC 42001コントロールやNIST AI RMF関数と明確に一致し、監査が容易になる。
関連論文リスト
- A Proactive Insider Threat Management Framework Using Explainable Machine Learning [0.14323566945483496]
本研究では,Insider Threat Explainable Machine Learning(IT-XML)フレームワークを提案する。
インサイダー脅威パターンに関する従業員の知識を評価するために,オンラインアンケートを用いて定量的アプローチを採用する。
このフレームワークは、すべての組織を97-98%の信頼性でセキュリティ成熟度レベルに分類し、91.7%の分類精度を達成した。
論文 参考訳(メタデータ) (2025-10-22T14:08:38Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards [5.388550452190688]
本稿では、NIST AI RMF 1.0、英国のAIおよびデータ保護リスクツールキット、EUのALTAIの3つの主要なAIガバナンス標準におけるセキュリティリスクの監査と定量化を行う。
新しいリスク評価手法を用いて、リスク重大度指数(RSI)、アタックポテンシャル指数(AVPI)、コンプライアンス・セキュリティギャップパーセンテージ(CSGP)、ルート原因脆弱性スコア(RCVS)の4つの主要な指標を開発する。
論文 参考訳(メタデータ) (2025-02-12T17:57:54Z) - The AI Revolution: Opportunities and Challenges for the Finance Sector [12.486180180030964]
金融セクターにおけるAIの応用は、業界を変えつつある。
しかしながら、これらのメリットに加えて、AIはいくつかの課題も提示する。
これには透明性、解釈可能性、公正性、説明責任、信頼性に関する問題が含まれる。
金融セクターにおけるAIの使用は、データプライバシとセキュリティに関する重要な疑問をさらに引き起こす。
このニーズをグローバルに認識しているにもかかわらず、金融におけるAIの使用に関する明確なガイドラインや法律はいまだに存在しない。
論文 参考訳(メタデータ) (2023-08-31T08:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。