論文の概要: Reinsuring AI: Energy, Agriculture, Finance & Medicine as Precedents for Scalable Governance of Frontier Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2504.02127v1
- Date: Wed, 02 Apr 2025 21:02:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-12 00:23:31.592865
- Title: Reinsuring AI: Energy, Agriculture, Finance & Medicine as Precedents for Scalable Governance of Frontier Artificial Intelligence
- Title(参考訳): Reinsuring AI:フロンティア人工知能のスケーラブルガバナンスの先駆者としてのエネルギー、農業、ファイナンス、医療
- Authors: Nicholas Stetler,
- Abstract要約: 本稿では,3階層の保険アーキテクチャを通じて,このようなハイテイクモデルを管理するための新しい枠組みを提案する。
連邦政府が、脆弱な規制や予測ライセンス制度に頼ることなく、民間のAI保険市場を安定させる方法を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The governance of frontier artificial intelligence (AI) systems--particularly those capable of catastrophic misuse or systemic failure--requires institutional structures that are robust, adaptive, and innovation-preserving. This paper proposes a novel framework for governing such high-stakes models through a three-tiered insurance architecture: (1) mandatory private liability insurance for frontier model developers; (2) an industry-administered risk pool to absorb recurring, non-catastrophic losses; and (3) federally backed reinsurance for tail-risk events. Drawing from historical precedents in nuclear energy (Price-Anderson), terrorism risk (TRIA), agricultural crop insurance, flood reinsurance, and medical malpractice, the proposal shows how the federal government can stabilize private AI insurance markets without resorting to brittle regulation or predictive licensing regimes. The structure aligns incentives between AI developers and downstream stakeholders, transforms safety practices into insurable standards, and enables modular oversight through adaptive eligibility criteria. By focusing on risk-transfer mechanisms rather than prescriptive rules, this framework seeks to render AI safety a structural feature of the innovation ecosystem itself--integrated into capital markets, not external to them. The paper concludes with a legal and administrative feasibility analysis, proposing avenues for statutory authorization and agency placement within existing federal structures.
- Abstract(参考訳): 辺境人工知能(AI)システムのガバナンス - 特に破滅的な誤用やシステム障害が可能なもの - は、堅牢で適応性があり、革新的保存を必要とする制度構造を必要とする。
本稿は,(1)フロンティアモデル開発者に対する義務的個人責任保険,(2)再発,非破滅的な損失を吸収する産業管理型リスクプール,(3)尾のリスクイベントに対する連邦政府支援の3段階の保険アーキテクチャを通じて,このような高リスクモデルを管理するための新たな枠組みを提案する。
この提案は、原子力(プライス・アンダーソン)、テロリズムリスク(TRIA)、農作物保険、洪水の復活、医療事故の歴史的先例から引用され、連邦政府が脆弱な規制や予測ライセンス制度に頼ることなく、民間AI保険市場を安定化させる方法を示している。
この構造は、AI開発者と下流のステークホルダー間のインセンティブを整合させ、安全プラクティスを保証可能な標準に変換し、適応的適性基準を通じてモジュラー監視を可能にする。
このフレームワークは、規範的なルールではなく、リスク伝達メカニズムに焦点を当てることで、AIの安全性をイノベーションエコシステム自体の構造的特徴として、その外部ではなく、資本市場に統合することを目指している。
この論文は、法的なおよび行政的な実現可能性の分析で締めくくられ、既存の連邦構造の中に法的な認可と機関を置くための道を提案している。
関連論文リスト
- When Does Regulation by Insurance Work? The Case of Frontier AI [0.0]
保険規制」の反対派や反対派は、このような純規制効果のある保険会社が成功したり失敗したりした事例を多数記録している。
本条は、所定の文脈において、保険の取扱いの効果を評価するための原則的枠組みを整備する。
論文 参考訳(メタデータ) (2025-12-06T23:45:06Z) - The 2025 OpenAI Preparedness Framework does not guarantee any AI risk mitigation practices: a proof-of-concept for affordance analyses of AI safety policies [35.43144920451646]
OpenAI 'Preparedness Framework Version 2' (2025年4月) は、余裕のメカニズムと条件モデルとMIT AI Risk Repositoryを用いて分析する。
この安全ポリシーは、少数のAIリスクの評価を要求し、意図せずに「致命的な危害」を可能にする'Medium'機能を備えたシステムのデプロイを奨励する。
これらの結果は、AIリスクの効果的な緩和には、現在の業界自己規制を超えて、より堅牢なガバナンス介入が必要であることを示唆している。
論文 参考訳(メタデータ) (2025-09-29T07:42:10Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Framework for the Private Governance of Frontier Artificial Intelligence [0.0]
本稿では,ハイブリッド・パブリック・プライベート・システムによるフロンティアAIシステムのガバナンスについて提案する。
政府によって認可され、監督される民間機関は、オプトインベースでフロンティアAIシステムの開発者に認証を提供する。
オプトインと引き換えに、フロンティアAI企業は、顧客のモデル誤用に対するトルト責任から保護を受ける。
論文 参考訳(メタデータ) (2025-04-15T02:56:26Z) - A proposal for an incident regime that tracks and counters threats to national security posed by AI systems [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障上の脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントレジーを提案する。
私たちの提案は、AIシステムによって引き起こされる潜在的な国家安全保障上の脅威に対する政策上の関心から、タイムリーに行われます。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI [0.0]
本稿では、フロンティアAIモデルの開発者は、クリティカルAI発生(CAIO)による損害に対して、限定的で厳格で排他的な第三者責任を課すべきである、と論じる。
CAIO責任の強制保険は、開発者の判断力、勝者の呪いのダイナミクスを克服し、保険会社の準規制能力を活用するために推奨される。
論文 参考訳(メタデータ) (2024-09-10T17:41:31Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Taxonomy to Regulation: A (Geo)Political Taxonomy for AI Risks and Regulatory Measures in the EU AI Act [0.0]
この研究は、AIに関連する(地質)政治的リスクに焦点を当てた分類法を提案する。
1)地政学的圧力,(2)悪用,(3)環境,社会的,倫理的リスク,(4)プライバシ・トラスト・ヴァイオレーションの4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2024-04-17T15:32:56Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。