論文の概要: Mapping AI Risk Mitigations: Evidence Scan and Preliminary AI Risk Mitigation Taxonomy
- arxiv url: http://arxiv.org/abs/2512.11931v1
- Date: Fri, 12 Dec 2025 03:26:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.032765
- Title: Mapping AI Risk Mitigations: Evidence Scan and Preliminary AI Risk Mitigation Taxonomy
- Title(参考訳): AIリスク軽減のマッピング:エビデンススキャンと予備的なAIリスク軽減の分類
- Authors: Alexander K. Saeri, Sophia Lloyd George, Jess Graham, Clelia D. Lacarriere, Peter Slattery, Michael Noetel, Neil Thompson,
- Abstract要約: AIリスク軽減フレームワークの展望は断片化され、一貫性のない用語を使用し、カバレッジにギャップがある。
本稿では、AIリスク軽減のための予備的なAIリスク軽減分類を導入し、共通の参照枠を提供する。
この分類法は、2023年から2025年の間に発行された13のAIリスク軽減フレームワークの素早いエビデンススキャンによって開発された。
- 参考スコア(独自算出の注目度): 35.22340964134219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations and governments that develop, deploy, use, and govern AI must coordinate on effective risk mitigation. However, the landscape of AI risk mitigation frameworks is fragmented, uses inconsistent terminology, and has gaps in coverage. This paper introduces a preliminary AI Risk Mitigation Taxonomy to organize AI risk mitigations and provide a common frame of reference. The Taxonomy was developed through a rapid evidence scan of 13 AI risk mitigation frameworks published between 2023-2025, which were extracted into a living database of 831 AI risk mitigations. The mitigations were iteratively clustered & coded to create the Taxonomy. The preliminary AI Risk Mitigation Taxonomy organizes mitigations into four categories and 23 subcategories: (1) Governance & Oversight: Formal organizational structures and policy frameworks that establish human oversight mechanisms and decision protocols; (2) Technical & Security: Technical, physical, and engineering safeguards that secure AI systems and constrain model behaviors; (3) Operational Process: processes and management frameworks governing AI system deployment, usage, monitoring, incident handling, and validation; and (4) Transparency & Accountability: formal disclosure practices and verification mechanisms that communicate AI system information and enable external scrutiny. The rapid evidence scan and taxonomy construction also revealed several cases where terms like 'risk management' and 'red teaming' are used widely but refer to different responsible actors, actions, and mechanisms of action to reduce risk. This Taxonomy and associated mitigation database, while preliminary, offers a starting point for collation and synthesis of AI risk mitigations. It also offers an accessible, structured way for different actors in the AI ecosystem to discuss and coordinate action to reduce risks from AI.
- Abstract(参考訳): AIを開発し、デプロイし、使用し、管理する組織や政府は、効果的なリスク軽減を調整しなければなりません。
しかし、AIリスク軽減フレームワークの展望は断片化され、一貫性のない用語を使用し、カバレッジのギャップがある。
本稿では、AIリスク軽減のための予備的なAIリスク軽減分類を導入し、共通の参照枠を提供する。
分類学は、2023年から2025年の間に発行された13のAIリスク軽減フレームワークの素早いエビデンススキャンによって開発された。
緩和策は反復的にクラスタ化され、分類学を作成するためにコード化された。
1)ガバナンスと監督:人間の監視機構と決定プロトコルを確立する形式的な組織構造と政策の枠組み、(2)技術とセキュリティ:AIシステムと制約モデル行動を保護する技術、物理的、エンジニアリングの保護、(3)運用プロセス:AIシステムのデプロイメント、利用、監視、インシデントハンドリング、検証を管理するプロセスと管理のフレームワーク、(4)透明性と説明責任:AIシステム情報と外部監視を可能にする公式な開示の実践と検証のメカニズム。
素早いエビデンススキャンと分類学の構築により、「リスクマネジメント」や「レッドチーム」といった用語が広く用いられるケースもいくつか示されたが、リスクを減らすために異なる責任あるアクター、行動、行動のメカニズムを指している。
この分類学と関連する緩和データベースは、予備的ではあるが、AIリスク軽減のコレーションと合成の出発点を提供する。
また、AIエコシステム内のさまざまなアクターが、AIからのリスクを減らすためのアクションを議論し、調整するための、アクセス可能で構造化された方法を提供する。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - CORTEX: Composite Overlay for Risk Tiering and Exposure in Operational AI Systems [0.812761334568906]
本稿では,AIシステムの脆弱性を評価し,評価する多層リスクスコアリングフレームワークであるCORTEXを紹介する。
AIインシデントデータベース(AIID)に記録された1200件以上のインシデントを実証分析した。
結果として得られる複合スコアは、AIリスクレジスタ、モデル監査、適合性チェック、動的ガバナンスダッシュボード間で運用することができる。
論文 参考訳(メタデータ) (2025-08-24T07:30:25Z) - AI Risk Atlas: Taxonomy and Tooling for Navigating AI Risks and Resources [24.502423087280008]
AIリスクアトラス(AI Risk Atlas)は、さまざまなソースからAIリスクを統合し、それらをガバナンスフレームワークと整合させる、構造化された分類法である。
私たちはまた、リスク定義、ベンチマーク、データセット、緩和戦略の分割を橋渡しするために設計されたオープンソースのツールのコレクションであるR Risk Atlas Nexusを紹介します。
論文 参考訳(メタデータ) (2025-02-26T12:23:14Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - A Taxonomy of Systemic Risks from General-Purpose AI [2.5956465292067867]
我々は、システム的リスクを、社会全体や経済に影響を及ぼす大規模な脅威と見なしている。
システム的リスクの主な源は、知識ギャップ、害を認識するための課題、そしてAI開発における予測不可能な軌道から生まれる。
本稿では,汎用AIの大規模負の社会的影響を理解し,対処するための構造的基盤を提供することで,AIの安全性研究に寄与する。
論文 参考訳(メタデータ) (2024-11-24T22:16:18Z) - The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence [35.77247656798871]
人工知能(AI)によって引き起こされるリスクは、学者、監査人、政策立案者、AI企業、そして一般大衆にかなり懸念されている。
AIリスクに対する共通理解の欠如は、包括的に議論し、研究し、それに反応する能力を妨げる可能性がある。
本稿では、共通の参照フレームとして機能するAIリスクリポジトリを作成することで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-08-14T10:32:06Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。