論文の概要: The 2025 OpenAI Preparedness Framework does not guarantee any AI risk mitigation practices: a proof-of-concept for affordance analyses of AI safety policies
- arxiv url: http://arxiv.org/abs/2509.24394v1
- Date: Mon, 29 Sep 2025 07:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.826826
- Title: The 2025 OpenAI Preparedness Framework does not guarantee any AI risk mitigation practices: a proof-of-concept for affordance analyses of AI safety policies
- Title(参考訳): 2025 OpenAI Preparedness Frameworkは、AIリスク軽減のプラクティスを保証していない。
- Authors: Sam Coggins, Alex Saeri, Katherine A. Daniell, Lorenn P. Ruster, Jessie Liu, Jenny L. Davis,
- Abstract要約: 著名なAI企業は、自主的な自己管理の一種として「安全フレームワーク」を生産している。
OpenAI 'Preparedness Framework Version 2' (2025年4月) は、余裕のメカニズムと条件モデルとMIT AI Risk Repositoryを用いて分析する。
この安全ポリシーは、少数のAIリスクの評価を要求し、‘Medium’機能を備えたシステムのデプロイを奨励し、OpenAIのCEOがさらに危険な機能をデプロイできるようにする。
- 参考スコア(独自算出の注目度): 0.26388783516590225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prominent AI companies are producing 'safety frameworks' as a type of voluntary self-governance. These statements purport to establish risk thresholds and safety procedures for the development and deployment of highly capable AI. Understanding which AI risks are covered and what actions are allowed, refused, demanded, encouraged, or discouraged by these statements is vital for assessing how these frameworks actually govern AI development and deployment. We draw on affordance theory to analyse the OpenAI 'Preparedness Framework Version 2' (April 2025) using the Mechanisms & Conditions model of affordances and the MIT AI Risk Repository. We find that this safety policy requests evaluation of a small minority of AI risks, encourages deployment of systems with 'Medium' capabilities for what OpenAI itself defines as 'severe harm' (potential for >1000 deaths or >$100B in damages), and allows OpenAI's CEO to deploy even more dangerous capabilities. These findings suggest that effective mitigation of AI risks requires more robust governance interventions beyond current industry self-regulation. Our affordance analysis provides a replicable method for evaluating what safety frameworks actually permit versus what they claim.
- Abstract(参考訳): 著名なAI企業は、自主的な自己管理の一種として、"安全フレームワーク"を生産している。
これらの声明は、高度なAIの開発と展開のためのリスクしきい値と安全手順を確立することを目的としている。
これらの声明によって、どのAIリスクがカバーされ、どのアクションが許可され、拒否され、要求され、奨励され、拒否されるかを理解することは、これらのフレームワークがAI開発とデプロイメントを実際にどのように管理するかを評価する上で不可欠である。
我々は,OpenAI 'Preparedness Framework Version 2' (2025年4月)を,割当のメカニズムと条件モデルとMIT AI Risk Repositoryを用いて分析するために,割当理論を導いた。
この安全ポリシーは、少数のAIリスクの評価を要求し、OpenAI自体が定義する"致命的な害"(1000人以上の死亡または100億ドル以上の損害)に対して、"Medium"機能を備えたシステムのデプロイを奨励し、OpenAIのCEOがさらに危険な機能を展開することを可能にする。
これらの結果は、AIリスクの効果的な緩和には、現在の業界自己規制を超えて、より堅牢なガバナンス介入が必要であることを示唆している。
我々のアベイランス分析は、安全フレームワークが実際に許すものと彼らが主張するものを評価するための、レプリカ可能な方法を提供します。
関連論文リスト
- Responsible AI Technical Report [2.855225489126354]
KTは、AIサービスの安全性と信頼性を保証するために、Responsible AI (RAI)アセスメント方法論とリスク軽減技術を開発した。
我々は、KTのAIリスク分類に基づくモデル安全性とロバスト性を検証する信頼性の高い評価手法を提案する。
また、特定されたAIリスクを管理し緩和するための実用的なツールも提供します。
論文 参考訳(メタデータ) (2025-09-24T12:26:33Z) - Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Liability Insurance With an Example in AI-Powered E-diagnosis System [22.102728605081534]
我々はAIによるE-diagnosisシステムをAI責任保険の研究の例として用いている。
我々は、AI責任保険がコンプライアンス行動のインセンティブを与えるための規制機構として機能し、高品質なAIシステムの証明書として機能することを示した。
論文 参考訳(メタデータ) (2023-06-01T21:03:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。