論文の概要: Assessing the Case for Africa-Centric AI Safety Evaluations
- arxiv url: http://arxiv.org/abs/2602.13757v1
- Date: Sat, 14 Feb 2026 13:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.371614
- Title: Assessing the Case for Africa-Centric AI Safety Evaluations
- Title(参考訳): アフリカ中心のAI安全評価の事例評価
- Authors: Gathoni Ireri, Cecil Abungu, Jean Cheptumo, Sienka Dounia, Mark Gitau, Stephanie Kasaon, Michael Michie, Chinasa Okolo, Jonathan Shock,
- Abstract要約: 我々はアフリカ中心の深刻なAIリスクを特定するための分類法を開発した。
我々は、アフリカの文脈に対する脅威モデリング戦略を提案する。
資源制約下での評価を行うための実践的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Frontier AI systems are being adopted across Africa, yet most AI safety evaluations are designed and validated in Western environments. In this paper, we argue that the portability gap can leave Africa-centric pathways to severe harm untested when frontier AI systems are embedded in materially constrained and interdependent infrastructures. We define severe AI risks as material risks from frontier AI systems that result in critical harm, measured as the grave injury or death of thousands of people or economic loss and damage equivalent to five percent of a country's GDP. To support AI safety evaluation design, we develop a taxonomy for identifying Africa-centric severe AI risks. The taxonomy links outcome thresholds to process pathways that model risk as the intersection of hazard, vulnerability, and exposure. We distinguish severe risks by amplification and suddenness, where amplification requires that frontier AI be a necessary magnifier of latent danger and suddenness captures harms that materialise rapidly enough to overwhelm ordinary coping and governance capacity. We then propose threat modelling strategies for African contexts, surveying reference class forecasting, structured expert elicitation, scenario planning, and system theoretic process analysis, and tailoring them to constraints of limited resources, poor connectivity, limited technical expertise, weak state capacity, and conflict. We also examine AI misalignment risk, concluding that Africa is more likely to expose universal failure modes through distributional shift than to generate distinct pathways of misalignment. Finally, we offer practical guidance for running evaluations under resource constraints, emphasising open and extensible tooling, tiered evaluation pipelines, and sharing methods and findings to broaden evaluation scope.
- Abstract(参考訳): アフリカ全域でフロンティアAIシステムが採用されているが、ほとんどのAI安全性評価は西洋の環境で設計され、検証されている。
本稿では,フロンティアAIシステムが物質的制約と相互依存のインフラに埋め込まれている場合,移植性ギャップがアフリカ中心の経路に深刻な危害を与える可能性があることを論じる。
我々は、重篤なAIリスクを、何千人もの人々の致死傷や経済的な損失、国のGDPの5%に相当する損害として測定される、フロンティアAIシステムによる物質的リスクとして定義する。
AIの安全性評価設計を支援するため、アフリカ中心の深刻なAIリスクを特定するための分類法を開発した。
分類学は、リスクを危険、脆弱性、暴露の交差点としてモデル化するプロセスパスに結果しきい値を関連付けている。
増幅と急激さによって重篤なリスクを区別し、増幅はフロンティアAIが潜伏する危険と急激な障害を捉え、通常の対処能力とガバナンス能力に匹敵するほどに急速に悪化する。
次に、アフリカにおける文脈の脅威モデリング戦略、参照クラス予測、構造化専門家の試行、シナリオプランニング、システム理論プロセス分析を提案し、限られた資源の制約、接続性が悪いこと、限られた技術的専門知識、弱い国家能力、コンフリクトに調整する。
我々はまた、AIのミスアライメントリスクについても検討し、アフリカは個別のミスアライメントの経路を生成するよりも、分布シフトを通じて普遍的な障害モードを公開する傾向にあると結論付けている。
最後に、リソース制約下で評価を実行するための実践的なガイダンス、オープンで拡張可能なツール、階層化された評価パイプライン、評価範囲を広げるための方法と結果の共有について紹介する。
関連論文リスト
- Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - The Role of Risk Modeling in Advanced AI Risk Management [33.357295564462284]
急速に進歩する人工知能(AI)システムは、新しい、不確実で、潜在的に破滅的なリスクをもたらす。
これらのリスクを管理するには、厳格なリスクモデリングの基盤となる成熟したリスク管理インフラストラクチャが必要です。
先進的なAIガバナンスは、同様の二重アプローチを採用するべきであり、検証可能な、確実に安全なAIアーキテクチャが緊急に必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2025-12-09T15:37:33Z) - Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report [51.17413460785022]
本報告では,フロンティアリスクの包括的評価について述べる。
サイバー犯罪、生物学的および化学的リスク、説得と操作、制御不能な自律型AIR&D、戦略的騙しと計画、自己複製、共謀の7つの分野における重要なリスクを特定します。
論文 参考訳(メタデータ) (2025-07-22T12:44:38Z) - Systematic Hazard Analysis for Frontier AI using STPA [0.0]
現在、フロンティアAI企業は、ハザードを特定し分析するための構造化アプローチの詳細を記述していない。
システム理論プロセス分析(Systems-Theoretic Process Analysis)は、複雑なシステムがいかに危険に晒されるかを特定するための体系的な方法論である。
我々は、フロンティアAIシステムにおいて、スコープを広げ、トレーサビリティを向上し、安全性保証の堅牢性を強化する能力を評価する。
論文 参考訳(メタデータ) (2025-06-02T15:28:34Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。