論文の概要: Emergency Response Measures for Catastrophic AI Risk
- arxiv url: http://arxiv.org/abs/2511.05526v1
- Date: Tue, 28 Oct 2025 22:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.017343
- Title: Emergency Response Measures for Catastrophic AI Risk
- Title(参考訳): 破滅的AIリスクに対する緊急対応策
- Authors: James Zhang, Miles Kodama, Zongze Wu, Michael Chen, Yue Zhu, Geng Hong,
- Abstract要約: 本稿では、フロンティア安全ポリシー(FSP)という国際的AI安全プラクティスにインスパイアされた実装モデルを分析する。
FSPは、危険な能力と、事前に計画された安全対策のための事前配備評価を特徴としている。
我々は、FSPと中国の緊急対応枠組みの積極的相の密接な一致を観察する。
- 参考スコア(独自算出の注目度): 11.08314711425289
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Chinese authorities are extending the country's four-phase emergency response framework (prevent, warn, respond, and recover) to address risks from advanced artificial intelligence (AI). Concrete mechanisms for the proactive prevention and warning phases, however, remain under development. This paper analyzes an implementation model inspired by international AI safety practices: frontier safety policies (FSPs). These policies feature pre-deployment evaluations for dangerous capabilities and tiered, pre-planned safety measures. We observe close alignment between FSPs and the proactive phases of China's emergency response framework, suggesting that the FSP model could help operationalize AI emergency preparedness in a manner consistent with China's established governance principles.
- Abstract(参考訳): 中国当局は、先進的な人工知能(AI)のリスクに対応するため、中国の4段階の緊急対応枠組み(予防、警告、応答、回復)を拡張している。
しかし、予防・警戒段階のための具体的なメカニズムは、現在も開発が続けられている。
本稿では、フロンティア安全ポリシー(FSP)という国際的AI安全プラクティスにインスパイアされた実装モデルを分析する。
これらの政策は、危険能力の事前配備評価と、事前に計画された安全対策を特徴としている。
我々は、FSPと中国の緊急対応フレームワークの積極的なフェーズの密接な一致を観察し、FSPモデルは、中国の確立したガバナンス原則と整合した方法で、AI緊急準備の運用を支援することを示唆している。
関連論文リスト
- The 2025 OpenAI Preparedness Framework does not guarantee any AI risk mitigation practices: a proof-of-concept for affordance analyses of AI safety policies [35.43144920451646]
OpenAI 'Preparedness Framework Version 2' (2025年4月) は、余裕のメカニズムと条件モデルとMIT AI Risk Repositoryを用いて分析する。
この安全ポリシーは、少数のAIリスクの評価を要求し、意図せずに「致命的な危害」を可能にする'Medium'機能を備えたシステムのデプロイを奨励する。
これらの結果は、AIリスクの効果的な緩和には、現在の業界自己規制を超えて、より堅牢なガバナンス介入が必要であることを示唆している。
論文 参考訳(メタデータ) (2025-09-29T07:42:10Z) - Offensive Security for AI Systems: Concepts, Practices, and Applications [0.0]
従来の防御策は、AI駆動技術に直面するユニークで進化する脅威に対して、しばしば不足する。
本稿では、AIライフサイクル全体を通して脆弱性を明らかにするために、積極的な脅威シミュレーションと敵対的なテストを強調する。
論文 参考訳(メタデータ) (2025-05-09T18:58:56Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - AI Emergency Preparedness: Examining the federal government's ability to detect and respond to AI-related national security threats [0.2008854179910039]
緊急準備は、政府のAI進捗の監視と予測能力を向上させることができる。
1)コントロールの喪失(人間のコントロールを逃れることのできる強力なAIシステムからの脅威)、(2)悪意のあるアクターによるサイバーセキュリティの脅威、(3)生物兵器の増殖。
論文 参考訳(メタデータ) (2024-07-03T17:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。