論文の概要: Societal Capacity Assessment Framework: Measuring Resilience to Inform Advanced AI Risk Management
- arxiv url: http://arxiv.org/abs/2509.22742v1
- Date: Fri, 26 Sep 2025 02:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.842849
- Title: Societal Capacity Assessment Framework: Measuring Resilience to Inform Advanced AI Risk Management
- Title(参考訳): 社会能力評価フレームワーク: 高度なAIリスクマネジメントをインフォームするためのレジリエンスの測定
- Authors: Milan Gandhi, Peter Cihon, Owen Larter, Rebecca Anselmetti,
- Abstract要約: 社会能力評価フレームワーク(Scietal Capacity Assessment Framework、SCAF)は、AI関連のリスクに対応する社会の脆弱性、対処能力、適応能力を測定するための指標に基づくアプローチである。
SCAFは、確立されたレジリエンス分析方法論をAIに適用し、国レベルのデプロイメント状況に関する洞察でリスク管理を基盤とすることを可能にする。
- 参考スコア(独自算出の注目度): 0.14963505712040906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Risk assessments for advanced AI systems require evaluating both the models themselves and their deployment contexts. We introduce the Societal Capacity Assessment Framework (SCAF), an indicators-based approach to measuring a society's vulnerability, coping capacity, and adaptive capacity in response to AI-related risks. SCAF adapts established resilience analysis methodologies to AI, enabling organisations to ground risk management in insights about country-level deployment conditions. It can also support stakeholders in identifying opportunities to strengthen societal preparedness for emerging AI capabilities. By bridging disparate literatures and the "context gap" in AI evaluation, SCAF promotes more holistic risk assessment and governance as advanced AI systems proliferate globally.
- Abstract(参考訳): 高度なAIシステムのリスクアセスメントには、モデル自体とデプロイメントコンテキストの両方を評価する必要がある。
AI関連のリスクに対応するため,社会の脆弱性,対処能力,適応能力を測定するための指標ベースのアプローチであるScietal Capacity Assessment Framework(SCAF)を導入する。
SCAFは、確立されたレジリエンス分析方法論をAIに適用し、国レベルのデプロイメント状況に関する洞察でリスク管理を基盤とすることを可能にする。
また、新興AI能力に対する社会的準備を強化する機会を特定することでステークホルダーを支援することもできる。
異なる文献とAI評価の"コンテキストギャップ"をブリッジすることで、SCAFは、先進的なAIシステムが世界的に普及するにつれて、より包括的なリスク評価とガバナンスを促進する。
関連論文リスト
- Responsible AI Technical Report [2.855225489126354]
KTは、AIサービスの安全性と信頼性を保証するために、Responsible AI (RAI)アセスメント方法論とリスク軽減技術を開発した。
我々は、KTのAIリスク分類に基づくモデル安全性とロバスト性を検証する信頼性の高い評価手法を提案する。
また、特定されたAIリスクを管理し緩和するための実用的なツールも提供します。
論文 参考訳(メタデータ) (2025-09-24T12:26:33Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。