論文の概要: A Methodology for Quantitative AI Risk Modeling
- arxiv url: http://arxiv.org/abs/2512.08844v1
- Date: Tue, 09 Dec 2025 17:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.067926
- Title: A Methodology for Quantitative AI Risk Modeling
- Title(参考訳): 定量的AIリスクモデリング手法
- Authors: Malcolm Murray, Steve Barrett, Henry Papadatos, Otter Quarks, Matt Smith, Alejandro Tlaie Boria, Chloé Touzet, Siméon Campos,
- Abstract要約: 本稿では、シナリオ構築と定量的リスク推定を統合する手法を導入することにより、AIリスク管理のリスクモデリングコンポーネントを進化させる。
我々の手法は、サイバー犯罪、生物兵器開発、有害な操作、制御の喪失など、主要なシステム的AIリスクに適用できるように設計されている。
- 参考スコア(独自算出の注目度): 32.594929429306774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although general-purpose AI systems offer transformational opportunities in science and industry, they simultaneously raise critical concerns about safety, misuse, and potential loss of control. Despite these risks, methods for assessing and managing them remain underdeveloped. Effective risk management requires systematic modeling to characterize potential harms, as emphasized in frameworks such as the EU General-Purpose AI Code of Practice. This paper advances the risk modeling component of AI risk management by introducing a methodology that integrates scenario building with quantitative risk estimation, drawing on established approaches from other high-risk industries. Our methodology models risks through a six-step process: (1) defining risk scenarios, (2) decomposing them into quantifiable parameters, (3) quantifying baseline risk without AI models, (4) identifying key risk indicators such as benchmarks, (5) mapping these indicators to model parameters to estimate LLM uplift, and (6) aggregating individual parameters into risk estimates that enable concrete claims (e.g., X% probability of >\$Y in annual cyber damages). We examine the choices that underlie our methodology throughout the article, with discussions of strengths, limitations, and implications for future research. Our methodology is designed to be applicable to key systemic AI risks, including cyber offense, biological weapon development, harmful manipulation, and loss-of-control, and is validated through extensive application in LLM-enabled cyber offense. Detailed empirical results and cyber-specific insights are presented in a companion paper.
- Abstract(参考訳): 汎用AIシステムは科学や産業において変革の機会を提供するが、安全、誤用、制御の潜在的な喪失について重要な懸念を同時に提起する。
これらのリスクにもかかわらず、評価と管理の方法は未開発のままである。
効果的なリスク管理には、EUの汎用AIコード・オブ・プラクティス(General-Purpose AI Code of Practice)などのフレームワークで強調されているように、潜在的な害を特徴付けるための体系的なモデリングが必要である。
本稿では,AIリスク管理のリスクモデリングコンポーネントを定量的リスク推定とシナリオ構築の統合手法を導入し,他のハイリスク産業の確立したアプローチを取り入れた。
1)リスクシナリオの定義,(2)AIモデルのない基準的リスクの定量化,(4)ベンチマークなどの主要なリスク指標の同定,(5)これらの指標をモデルパラメータにマッピングしてLCM上昇を推定,(6)具体的なクレームを可能にするリスク推定に個々のパラメータを集約する(例, 年次サイバー被害のX%確率)。
本稿では, 今後の研究における強み, 限界, 含意について検討し, 方法論の根底にある選択肢について検討する。
我々の手法は、サイバー犯罪、生物兵器開発、有害な操作、制御の喪失など、主要なシステムAIリスクに適用でき、LLM対応のサイバー犯罪において広範囲の応用を通じて検証される。
詳細な実験結果とサイバー特有の洞察を共用する論文で紹介する。
関連論文リスト
- Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - The Role of Risk Modeling in Advanced AI Risk Management [33.357295564462284]
急速に進歩する人工知能(AI)システムは、新しい、不確実で、潜在的に破滅的なリスクをもたらす。
これらのリスクを管理するには、厳格なリスクモデリングの基盤となる成熟したリスク管理インフラストラクチャが必要です。
先進的なAIガバナンスは、同様の二重アプローチを採用するべきであり、検証可能な、確実に安全なAIアーキテクチャが緊急に必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2025-12-09T15:37:33Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Dimensional Characterization and Pathway Modeling for Catastrophic AI Risks [0.0]
本稿では, CBRN, サイバー攻撃, 制御の突然の喪失, 制御の段階的喪失, 環境リスク, 地政学的リスクの6つのAI破滅的リスクについて検討する。
我々は、これらのリスクを、意図、能力、実体、極性、線形性、到達、順序という7つの重要な次元にまたがって特徴づける。
我々は、初期危険から結果として生じる害へのステップバイステップの進行をマッピングしてリスク経路モデリングを行う。
論文 参考訳(メタデータ) (2025-08-08T15:56:05Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。