論文の概要: Societal Capacity Assessment Framework: Measuring Resilience to Inform Advanced AI Risk Management
- arxiv url: http://arxiv.org/abs/2509.22742v1
- Date: Fri, 26 Sep 2025 02:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.842849
- Title: Societal Capacity Assessment Framework: Measuring Resilience to Inform Advanced AI Risk Management
- Title(参考訳): 社会能力評価フレームワーク: 高度なAIリスクマネジメントをインフォームするためのレジリエンスの測定
- Authors: Milan Gandhi, Peter Cihon, Owen Larter, Rebecca Anselmetti,
- Abstract要約: 社会能力評価フレームワーク(Scietal Capacity Assessment Framework、SCAF)は、AI関連のリスクに対応する社会の脆弱性、対処能力、適応能力を測定するための指標に基づくアプローチである。
SCAFは、確立されたレジリエンス分析方法論をAIに適用し、国レベルのデプロイメント状況に関する洞察でリスク管理を基盤とすることを可能にする。
- 参考スコア(独自算出の注目度): 0.14963505712040906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Risk assessments for advanced AI systems require evaluating both the models themselves and their deployment contexts. We introduce the Societal Capacity Assessment Framework (SCAF), an indicators-based approach to measuring a society's vulnerability, coping capacity, and adaptive capacity in response to AI-related risks. SCAF adapts established resilience analysis methodologies to AI, enabling organisations to ground risk management in insights about country-level deployment conditions. It can also support stakeholders in identifying opportunities to strengthen societal preparedness for emerging AI capabilities. By bridging disparate literatures and the "context gap" in AI evaluation, SCAF promotes more holistic risk assessment and governance as advanced AI systems proliferate globally.
- Abstract(参考訳): 高度なAIシステムのリスクアセスメントには、モデル自体とデプロイメントコンテキストの両方を評価する必要がある。
AI関連のリスクに対応するため,社会の脆弱性,対処能力,適応能力を測定するための指標ベースのアプローチであるScietal Capacity Assessment Framework(SCAF)を導入する。
SCAFは、確立されたレジリエンス分析方法論をAIに適用し、国レベルのデプロイメント状況に関する洞察でリスク管理を基盤とすることを可能にする。
また、新興AI能力に対する社会的準備を強化する機会を特定することでステークホルダーを支援することもできる。
異なる文献とAI評価の"コンテキストギャップ"をブリッジすることで、SCAFは、先進的なAIシステムが世界的に普及するにつれて、より包括的なリスク評価とガバナンスを促進する。
関連論文リスト
- Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - Responsible AI Technical Report [2.855225489126354]
KTは、AIサービスの安全性と信頼性を保証するために、Responsible AI (RAI)アセスメント方法論とリスク軽減技術を開発した。
我々は、KTのAIリスク分類に基づくモデル安全性とロバスト性を検証する信頼性の高い評価手法を提案する。
また、特定されたAIリスクを管理し緩和するための実用的なツールも提供します。
論文 参考訳(メタデータ) (2025-09-24T12:26:33Z) - Developing and Maintaining an Open-Source Repository of AI Evaluations: Challenges and Insights [44.99833362998488]
本稿では,70以上のコミュニティに分散したAI評価のオープンソースリポジトリである$_evals$の8ヶ月間の実践的洞察を紹介する。
AI評価の実装とメンテナンス、ソリューション開発における重要な課題を特定します。
論文 参考訳(メタデータ) (2025-07-09T14:30:45Z) - Systematic Hazard Analysis for Frontier AI using STPA [0.0]
現在、フロンティアAI企業は、ハザードを特定し分析するための構造化アプローチの詳細を記述していない。
システム理論プロセス分析(Systems-Theoretic Process Analysis)は、複雑なシステムがいかに危険に晒されるかを特定するための体系的な方法論である。
我々は、フロンティアAIシステムにおいて、スコープを広げ、トレーサビリティを向上し、安全性保証の堅牢性を強化する能力を評価する。
論文 参考訳(メタデータ) (2025-06-02T15:28:34Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - Securing External Deeper-than-black-box GPAI Evaluations [49.1574468325115]
本稿では,汎用AI(GPAI)モデルの安全かつ効果的な外部評価を行う上での課題と可能性について検討する。
サイズ、能力、到達度、付随するリスクの指数的な増加により、説明責任、安全性、および公的な信頼を保証するには、従来のブラックボックスメソッドを超えるフレームワークが必要である。
論文 参考訳(メタデータ) (2025-03-10T16:13:45Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - An International Consortium for Evaluations of Societal-Scale Risks from
Advanced AI [10.550015825854837]
規制のギャップにより、AIラボは最小限の監視で研究、開発、デプロイメント活動を行うことができた。
フロンティアAIシステムの評価は、フロンティアAIシステムの開発と展開のリスクを評価する方法として提案されている。
本稿では,AI開発者とサードパーティのAIリスク評価者の両方からなる,AIリスク評価のための国際コンソーシアムの形でのソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-22T23:37:48Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。