論文の概要: Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse
- arxiv url: http://arxiv.org/abs/2512.08864v1
- Date: Tue, 09 Dec 2025 17:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.075992
- Title: Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse
- Title(参考訳): AIミスによるサイバーセキュリティリスクの定量的モデリングに向けて
- Authors: Steve Barrett, Malcolm Murray, Otter Quarks, Matthew Smith, Jakub Kryś, Siméon Campos, Alejandro Tlaie Boria, Chloé Touzet, Sevan Hayrapet, Fred Heiding, Omer Nevo, Adam Swanda, Jair Aguirre, Asher Brass Gershovich, Eric Clay, Ryan Fetterman, Mario Fritz, Marc Juarez, Vasilios Mavroudis, Henry Papadatos,
- Abstract要約: 我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
- 参考スコア(独自算出の注目度): 50.87630846876635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced AI systems offer substantial benefits but also introduce risks. In 2025, AI-enabled cyber offense has emerged as a concrete example. This technical report applies a quantitative risk modeling methodology (described in full in a companion paper) to this domain. We develop nine detailed cyber risk models that allow analyzing AI uplift as a function of AI benchmark performance. Each model decomposes attacks into steps using the MITRE ATT&CK framework and estimates how AI affects the number of attackers, attack frequency, probability of success, and resulting harm to determine different types of uplift. To produce these estimates with associated uncertainty, we employ both human experts, via a Delphi study, as well as LLM-based simulated experts, both mapping benchmark scores (from Cybench and BountyBench) to risk model factors. Individual estimates are aggregated through Monte Carlo simulation. The results indicate systematic uplift in attack efficacy, speed, and target reach, with different mechanisms of uplift across risk models. We aim for our quantitative risk modeling to fulfill several aims: to help cybersecurity teams prioritize mitigations, AI evaluators design benchmarks, AI developers make more informed deployment decisions, and policymakers obtain information to set risk thresholds. Similar goals drove the shift from qualitative to quantitative assessment over time in other high-risk industries, such as nuclear power. We propose this methodology and initial application attempt as a step in that direction for AI risk management. While our estimates carry significant uncertainty, publishing detailed quantified results can enable experts to pinpoint exactly where they disagree. This helps to collectively refine estimates, something that cannot be done with qualitative assessments alone.
- Abstract(参考訳): 高度なAIシステムには大きなメリットがあるが、リスクも伴う。
2025年、AI対応のサイバー犯罪が具体例として浮上した。
この技術的レポートは、このドメインに量的リスクモデリング方法論(共用論文に完全記載されている)を適用します。
我々は、AIベンチマーク性能の関数としてAIアップリフトを分析することができる9つの詳細なサイバーリスクモデルを開発した。
それぞれのモデルは、MITRE ATT&CKフレームワークを使用して攻撃をステップに分解し、AIが攻撃者数、攻撃頻度、成功の確率にどのように影響するかを推定し、結果として異なるタイプのアップリフトを決定する。
これらの評価と関連する不確実性を得るために、我々はDelphi研究とLLMに基づくシミュレーション専門家の両方を用いて、ベンチマークスコア(CybenchとBountyBench)をリスクモデル要因にマッピングする。
個々の見積もりはモンテカルロシミュレーションによって集約される。
その結果, 攻撃効果, 速度, 目標到達率の体系的上昇が示唆され, リスクモデル間での上昇のメカニズムが異なることが示唆された。
我々は,サイバーセキュリティチームが軽減策の優先順位付けを支援すること,AI評価担当者がベンチマークを設計すること,AI開発者がより詳細なデプロイメント決定を行うこと,リスクしきい値を設定するための情報を取得すること,といった目的を達成するために,定量的リスクモデリングを目標としています。
同様の目標が原子力など他の高リスク産業における定性的から定量的な評価へと変化を促した。
本稿では,AIリスク管理の方向への一歩として,この方法論と初期応用の試みを提案する。
私たちの見積もりには大きな不確実性がありますが、詳細な定量化結果を公開することで、専門家が意見の一致を正確に特定することができます。
これは、質的な評価だけでは達成できないような見積もりをまとめて洗練するのに役立ちます。
関連論文リスト
- A Methodology for Quantitative AI Risk Modeling [32.594929429306774]
本稿では、シナリオ構築と定量的リスク推定を統合する手法を導入することにより、AIリスク管理のリスクモデリングコンポーネントを進化させる。
我々の手法は、サイバー犯罪、生物兵器開発、有害な操作、制御の喪失など、主要なシステム的AIリスクに適用できるように設計されている。
論文 参考訳(メタデータ) (2025-12-09T17:34:59Z) - Mapping AI Benchmark Data to Quantitative Risk Estimates Through Expert Elicitation [0.7889270818022226]
我々は、リスク見積の作成を容易にするために、既存のAIベンチマークをどのように利用できるかを示す。
本稿では、AIベンチマークであるCybenchからの情報を用いて確率推定を生成するパイロット研究の結果について述べる。
論文 参考訳(メタデータ) (2025-03-06T10:39:47Z) - Statistical Scenario Modelling and Lookalike Distributions for Multi-Variate AI Risk [0.6526824510982799]
シナリオモデリングがAIリスクを全体論的にモデル化する方法について説明する。
直接観測可能なデータがない場合にAIの影響を推定するために、AIに類似した現象からの見た目上の分布がどのように使用できるかを示す。
論文 参考訳(メタデータ) (2025-02-20T12:14:54Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。