論文の概要: Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards
- arxiv url: http://arxiv.org/abs/2502.08610v1
- Date: Wed, 12 Feb 2025 17:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:49:03.377887
- Title: Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards
- Title(参考訳): セキュリティ脆弱性の定量化 - 現在のAI標準におけるギャップのメトリクス駆動型セキュリティ分析
- Authors: Keerthana Madhavan, Abbas Yazdinejad, Fattane Zarrinkalam, Ali Dehghantanha,
- Abstract要約: 本稿では、NIST AI RMF 1.0、英国のAIおよびデータ保護リスクツールキット、EUのALTAIの3つの主要なAIガバナンス標準におけるセキュリティリスクの監査と定量化を行う。
新しいリスク評価手法を用いて、リスク重大度指数(RSI)、アタックポテンシャル指数(AVPI)、コンプライアンス・セキュリティギャップパーセンテージ(CSGP)、ルート原因脆弱性スコア(RCVS)の4つの主要な指標を開発する。
- 参考スコア(独自算出の注目度): 5.388550452190688
- License:
- Abstract: As AI systems integrate into critical infrastructure, security gaps in AI compliance frameworks demand urgent attention. This paper audits and quantifies security risks in three major AI governance standards: NIST AI RMF 1.0, UK's AI and Data Protection Risk Toolkit, and the EU's ALTAI. Using a novel risk assessment methodology, we develop four key metrics: Risk Severity Index (RSI), Attack Potential Index (AVPI), Compliance-Security Gap Percentage (CSGP), and Root Cause Vulnerability Score (RCVS). Our analysis identifies 136 concerns across the frameworks, exposing significant gaps. NIST fails to address 69.23 percent of identified risks, ALTAI has the highest attack vector vulnerability (AVPI = 0.51) and the ICO Toolkit has the largest compliance-security gap, with 80.00 percent of high-risk concerns remaining unresolved. Root cause analysis highlights under-defined processes (ALTAI RCVS = 033) and weak implementation guidance (NIST and ICO RCVS = 0.25) as critical weaknesses. These findings emphasize the need for stronger, enforceable security controls in AI compliance. We offer targeted recommendations to enhance security posture and bridge the gap between compliance and real-world AI risks.
- Abstract(参考訳): AIシステムは重要なインフラストラクチャに統合されるため、AIコンプライアンスフレームワークのセキュリティギャップには緊急の注意が必要である。
本稿では、NIST AI RMF 1.0、英国のAIおよびデータ保護リスクツールキット、EUのALTAIの3つの主要なAIガバナンス標準におけるセキュリティリスクの監査と定量化を行う。
新たなリスク評価手法を用いて,リスク重大度指数(RSI),アタックポテンシャル指数(AVPI),CSGP(Compliance-Security Gap Percentage),Root cause Vulnerability Score(RCVS)の4つの主要な指標を開発した。
私たちの分析では、フレームワーク全体で136の懸念を特定し、大きなギャップを明らかにしています。
NISTは特定リスクの69.3%に対処できず、ALTAIは最も高い攻撃ベクトル脆弱性(AVPI = 0.51)を持ち、ICO Toolkitは最大のコンプライアンスとセキュリティのギャップを持ち、ハイリスクの80.00パーセントは未解決のままである。
ルート原因分析では、未定義のプロセス(ALTAI RCVS = 033)と実装ガイダンス(NISTとICO RCVS = 0.25)が重要な弱点として強調されている。
これらの発見は、AIコンプライアンスにおけるより強力で強制力のあるセキュリティコントロールの必要性を強調している。
セキュリティ姿勢を強化し、コンプライアンスと現実のAIリスクのギャップを埋めるための、ターゲットとする推奨事項を提供します。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Towards Assuring EU AI Act Compliance and Adversarial Robustness of LLMs [1.368472250332885]
大規模な言語モデルは誤用しがちで、セキュリティの脅威に弱い。
欧州連合の人工知能法は、特定の文脈においてAIの堅牢性を強制しようとするものである。
論文 参考訳(メタデータ) (2024-10-04T18:38:49Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment [18.966590454042272]
この調査では、さまざまなAIイニシアチブをサポートするために設計された包括的なフレームワークとツールであるResponsible AI (RAI) Question Bankを紹介した。
公正性、透明性、説明責任といったAI倫理原則を構造化された質問形式に統合することで、RAI質問銀行は潜在的なリスクの特定を支援する。
論文 参考訳(メタデータ) (2024-08-02T22:40:20Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - A Relevance Model for Threat-Centric Ranking of Cybersecurity Vulnerabilities [0.29998889086656577]
脆弱性の追跡と更新の絶え間ないプロセスは、サイバーセキュリティの専門家にとって最大の関心事だ。
我々は、MITRE ATT&CKから派生した敵対的基準を用いた脅威の軽減に特化して、脆弱性管理のためのフレームワークを提供する。
我々の結果は、サイバー脅威のアクターが標的にし、悪用される可能性のある脆弱性の特定に向けた平均71.5%から91.3%の改善を示している。
論文 参考訳(メタデータ) (2024-06-09T23:29:12Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - QB4AIRA: A Question Bank for AI Risk Assessment [19.783485414942284]
QB4AIRAは、幅広いAIリスク領域をカバーする293の優先順位付けされた質問で構成されている。
AIリスクの評価と管理において、利害関係者にとって貴重なリソースとして機能する。
論文 参考訳(メタデータ) (2023-05-16T09:18:44Z) - Actionable Guidance for High-Consequence AI Risk Management: Towards
Standards Addressing AI Catastrophic Risks [12.927021288925099]
人工知能(AI)システムは、社会規模で非常に高い、または破滅的な結果をもたらす事象のリスクを提示することができる。
NISTはAIリスク評価と管理に関する自主的なガイダンスとして、AI RMF(AI Artificial Intelligence Risk Management Framework)を開発している。
我々は、非常に高い、または破滅的な結果のイベントのリスクを特定し、管理することに焦点を当てた、行動可能なガイダンスの詳細な推奨を提供する。
論文 参考訳(メタデータ) (2022-06-17T18:40:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。