論文の概要: Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety
- arxiv url: http://arxiv.org/abs/2303.03174v1
- Date: Mon, 6 Mar 2023 14:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:45:57.665249
- Title: Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety
- Title(参考訳): Vigilant Incentivesは、規制市場がAIの安全性を向上させる
- Authors: Paolo Bova and Alessandro Di Stefano and The Anh Han
- Abstract要約: Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
- 参考スコア(独自算出の注目度): 69.59465535312815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of rapid discoveries by leaders in AI, governments must
consider how to design regulation that matches the increasing pace of new AI
capabilities. Regulatory Markets for AI is a proposal designed with
adaptability in mind. It involves governments setting outcome-based targets for
AI companies to achieve, which they can show by purchasing services from a
market of private regulators. We use an evolutionary game theory model to
explore the role governments can play in building a Regulatory Market for AI
systems that deters reckless behaviour. We warn that it is alarmingly easy to
stumble on incentives which would prevent Regulatory Markets from achieving
this goal. These 'Bounty Incentives' only reward private regulators for
catching unsafe behaviour. We argue that AI companies will likely learn to
tailor their behaviour to how much effort regulators invest, discouraging
regulators from innovating. Instead, we recommend that governments always
reward regulators, except when they find that those regulators failed to detect
unsafe behaviour that they should have. These 'Vigilant Incentives' could
encourage private regulators to find innovative ways to evaluate cutting-edge
AI systems.
- Abstract(参考訳): AIのリーダーによる迅速な発見の文脈では、政府は新しいAI能力の増加ペースに合わせた規制をどう設計するかを検討する必要がある。
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき成果に基づく目標を設定し、民間規制当局の市場からサービスを購入することで示すことができる。
我々は進化的ゲーム理論モデルを用いて、政府が無謀な振る舞いを抑えるAIシステムのための規制市場を構築する上で、役割を探求する。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
これらの「バウンティ・インセンティブ」は、安全でない行動をキャッチした民間の規制当局にのみ報いる。
当社は、ai企業は規制当局がどれだけの努力を投資するかを学習し、規制当局がイノベーションを阻害する可能性が高いと主張している。
その代わりに、規制当局が安全でない行動を検出できなかったこと以外は、政府は常に規制当局に報いることを推奨します。
これらの'Vigilant Incentives'は、最先端のAIシステムを評価する革新的な方法を見つけることを民間規制当局に促す可能性がある。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Trust AI Regulation? Discerning users are vital to build trust and effective AI regulation [32.98110040460262]
我々は、信頼できるAIとユーザー信頼を生み出すためには、規制当局に効果的に規制するインセンティブが必要であることを示した。
これを実現するための2つのメカニズムの有効性を実証する。
次に,規制当局の有効性について,ユーザが信頼判断を強制できる代替ソリューションを検討する。
論文 参考訳(メタデータ) (2024-03-14T15:56:39Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Regulatory Markets: The Future of AI Governance [0.7230697742559377]
産業の自己規制への過度な依存は、生産者とユーザーが民主的要求に責任を負うことに失敗する。
AI規制に対するこのアプローチは、コマンド・アンド・コントロールの規制と自己規制の両方の制限を克服する可能性がある。
論文 参考訳(メタデータ) (2023-04-11T01:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。