論文の概要: Dimensional Characterization and Pathway Modeling for Catastrophic AI Risks
- arxiv url: http://arxiv.org/abs/2508.06411v1
- Date: Fri, 08 Aug 2025 15:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.291777
- Title: Dimensional Characterization and Pathway Modeling for Catastrophic AI Risks
- Title(参考訳): 破滅的AIリスクの次元的評価と経路モデリング
- Authors: Ze Shen Chin,
- Abstract要約: 本稿では, CBRN, サイバー攻撃, 制御の突然の喪失, 制御の段階的喪失, 環境リスク, 地政学的リスクの6つのAI破滅的リスクについて検討する。
我々は、これらのリスクを、意図、能力、実体、極性、線形性、到達、順序という7つの重要な次元にまたがって特徴づける。
我々は、初期危険から結果として生じる害へのステップバイステップの進行をマッピングしてリスク経路モデリングを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although discourse around the risks of Artificial Intelligence (AI) has grown, it often lacks a comprehensive, multidimensional framework, and concrete causal pathways mapping hazard to harm. This paper aims to bridge this gap by examining six commonly discussed AI catastrophic risks: CBRN, cyber offense, sudden loss of control, gradual loss of control, environmental risk, and geopolitical risk. First, we characterize these risks across seven key dimensions, namely intent, competency, entity, polarity, linearity, reach, and order. Next, we conduct risk pathway modeling by mapping step-by-step progressions from the initial hazard to the resulting harms. The dimensional approach supports systematic risk identification and generalizable mitigation strategies, while risk pathway models help identify scenario-specific interventions. Together, these methods offer a more structured and actionable foundation for managing catastrophic AI risks across the value chain.
- Abstract(参考訳): 人工知能(AI)のリスクに関する議論は増えているが、包括的で多次元の枠組みや、危険を危険にマッピングする具体的な因果経路が欠如していることが多い。
本稿では, CBRN, サイバー攻撃, 制御の突然の喪失, 制御の段階的喪失, 環境リスク, 地政学リスクの6つの大惨事リスクを調査し, このギャップを埋めることを目的とする。
まず、これらのリスクを、意図、能力、実体、極性、線形性、到達、順序という7つの重要な次元にまたがって特徴づける。
次に、最初の危険から結果として生じる害へのステップバイステップの進行をマッピングしてリスク経路モデリングを行う。
次元的アプローチは、体系的なリスク識別と一般化可能な緩和戦略をサポートし、リスクパスモデルはシナリオ固有の介入を特定するのに役立つ。
これらの手法は、バリューチェーン全体にわたる破滅的なAIリスクを管理するための、より構造化され実行可能な基盤を提供する。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report [51.17413460785022]
本報告では,フロンティアリスクの包括的評価について述べる。
サイバー犯罪、生物学的および化学的リスク、説得と操作、制御不能な自律型AIR&D、戦略的騙しと計画、自己複製、共謀の7つの分野における重要なリスクを特定します。
論文 参考訳(メタデータ) (2025-07-22T12:44:38Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z) - A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks [142.67349734180445]
ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
論文 参考訳(メタデータ) (2023-08-01T02:07:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。