論文の概要: Certified Safe: A Schematic for Approval Regulation of Frontier AI
- arxiv url: http://arxiv.org/abs/2408.06210v1
- Date: Mon, 12 Aug 2024 15:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 12:53:36.221673
- Title: Certified Safe: A Schematic for Approval Regulation of Frontier AI
- Title(参考訳): Certified Safe:フロンティアAIの承認規則
- Authors: Cole Salvador,
- Abstract要約: 承認規制スキームは、企業が法的に市場を拡大できない場合や、場合によっては、規制当局の明確な承認なしに製品を開発する場合である。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent and unremitting capability advances have been accompanied by calls for comprehensive, rather than patchwork, regulation of frontier artificial intelligence (AI). Approval regulation is emerging as a promising candidate. An approval regulation scheme is one in which a firm cannot legally market, or in some cases develop, a product without explicit approval from a regulator on the basis of experiments performed upon the product that demonstrate its safety. This approach is used successfully by the FDA and FAA. Further, its application to frontier AI has been publicly supported by many prominent stakeholders. This report proposes an approval regulation schematic for only the largest AI projects in which scrutiny begins before training and continues through to post-deployment monitoring. The centerpieces of the schematic are two major approval gates, the first requiring approval for large-scale training and the second for deployment. Five main challenges make implementation difficult: noncompliance through unsanctioned deployment, specification of deployment readiness requirements, reliable model experimentation, filtering out safe models before the process, and minimizing regulatory overhead. This report makes a number of crucial recommendations to increase the feasibility of approval regulation, some of which must be followed urgently if such a regime is to succeed in the near future. Further recommendations, produced by this report's analysis, may improve the effectiveness of any regulatory regime for frontier AI.
- Abstract(参考訳): 近年の非制限能力の進歩には、パッチワークではなく、フロンティア人工知能(AI)の規制を包括的に求める声が伴っている。
承認規制は有望な候補として浮上している。
承認規制スキームは、その商品の安全性を示す実験に基づいて、規制当局の明確な承認を受けずに、企業が法的に市場を拡大できない場合、または、場合によっては製品を開発する場合である。
このアプローチはFDAとFAAがうまく利用している。
さらに、フロンティアAIへの適用は、多くの著名な利害関係者によって公に支持されている。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
スキーマの中心は2つの主要な承認ゲートであり、第1は大規模トレーニングの承認を必要とし、第2は配備の承認を必要とする。
5つの大きな課題は、非承認デプロイメントによる非コンプライアンス、デプロイメントの可読性要件の仕様、信頼性のあるモデル実験、プロセス前に安全なモデルをフィルタリングすること、規制のオーバーヘッドを最小限にすることである。
本報告は、承認規制の実現可能性を高めるための重要な勧告を多数実施するが、そのうちのいくつかは、近い将来にその体制が成功する場合には緊急に続行しなければならない。
このレポートの分析によって得られたさらなる勧告により、フロンティアAIの規制体制の有効性が向上する可能性がある。
関連論文リスト
- From Principles to Rules: A Regulatory Approach for Frontier AI [2.1764247401772705]
レギュレータは、フロンティアAI開発者に安全対策を適用するよう要求する。
要件は、ハイレベルな原則や特定のルールとして定式化できる。
これらの規制アプローチは「原則ベース」および「ルールベース」規制と呼ばれ、補完的な強みと弱みを持っている。
論文 参考訳(メタデータ) (2024-07-10T01:45:15Z) - Rethinking Legal Compliance Automation: Opportunities with Large Language Models [2.9088208525097365]
我々は、(テキスト)法的アーティファクトの試験は、まず文よりも広い文脈で行うべきであると論じる。
これらの制約に対処するために,コンプライアンス分析手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T17:10:27Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Validation-Driven Development [54.50263643323]
本稿では,形式的開発における要件の検証を優先する検証駆動開発(VDD)プロセスを紹介する。
VDDプロセスの有効性は、航空業界におけるケーススタディを通じて実証されている。
論文 参考訳(メタデータ) (2023-08-11T09:15:26Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Regulation conform DLT-operable payment adapter based on trustless -
justified trust combined generalized state channels [77.34726150561087]
物の経済(EoT)は、ピアツーピアの信頼性のないネットワークで動作するソフトウェアエージェントに基づいています。
基本的価値と技術的可能性が異なる現在のソリューションの概要を述べる。
我々は,暗号ベースの分散型の信頼できない要素の強みと,確立された,十分に規制された支払い手段を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-03T10:45:55Z) - Design Challenges for GDPR RegTech [0.3867363075280544]
方法論のアカウンタビリティの原則は、組織が規則の遵守を証明できることを要求する。
コンプライアンスソフトウェアソリューションに関する調査では、コンプライアンスを示す能力において、大きなギャップが示されている。
RegTechは金融コンプライアンスに大きな成功を収め、リスクの低減、コスト削減、金融規制の強化を実現している。
論文 参考訳(メタデータ) (2020-05-21T18:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。