論文の概要: Auction-Based Regulation for Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2410.01871v1
- Date: Wed, 2 Oct 2024 17:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 10:14:15.504741
- Title: Auction-Based Regulation for Artificial Intelligence
- Title(参考訳): オークションによる人工知能の規制
- Authors: Marco Bornstein, Zora Che, Suhas Julapalli, Abdirisak Mohamed, Amrit Singh Bedi, Furong Huang,
- Abstract要約: 本稿では,AIの安全性を規制するオークションベースの規制機構を提案する。
我々は、各参加エージェントの最善の戦略は、所定の最小限の安全閾値よりも安全なモデルを送ることであることを確実に保証する。
その結果,我々の規制オークションは,安全率と参加率を20%,参加率を15%向上させることがわかった。
- 参考スコア(独自算出の注目度): 28.86995747151915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In an era of "moving fast and breaking things", regulators have moved slowly to pick up the safety, bias, and legal pieces left in the wake of broken Artificial Intelligence (AI) deployment. Since AI models, such as large language models, are able to push misinformation and stoke division within our society, it is imperative for regulators to employ a framework that mitigates these dangers and ensures user safety. While there is much-warranted discussion about how to address the safety, bias, and legal woes of state-of-the-art AI models, the number of rigorous and realistic mathematical frameworks to regulate AI safety is lacking. We take on this challenge, proposing an auction-based regulatory mechanism that provably incentivizes model-building agents (i) to deploy safer models and (ii) to participate in the regulation process. We provably guarantee, via derived Nash Equilibria, that each participating agent's best strategy is to submit a model safer than a prescribed minimum-safety threshold. Empirical results show that our regulatory auction boosts safety and participation rates by 20% and 15% respectively, outperforming simple regulatory frameworks that merely enforce minimum safety standards.
- Abstract(参考訳): の時代に、規制当局はゆっくりと動き、人工知能(AI)の展開が壊れた後に残された安全、偏見、法的要素を拾い上げている。
大規模言語モデルのようなAIモデルは、社会内で誤情報やストークの分割を推進できるため、規制当局がこれらの危険を軽減し、ユーザーの安全を確保するための枠組みを採用することが不可欠である。
最先端のAIモデルの安全性、バイアス、法的な問題にどのように対処するかについては、多くの専門的な議論があるが、AIの安全性を規制する厳密で現実的な数学的フレームワークの数は不足している。
我々はこの課題に取り組み、モデル構築エージェントを確実にインセンティブを与えるオークションベースの規制機構を提案する。
(i)より安全なモデルをデプロイし、
二 規制手続に参加すること。
我々は、派生したNash Equilibriaを通じて、各参加者の最善の戦略は、所定の最小限の安全閾値よりも安全なモデルを提出することであるということを確実に保証する。
実証的な結果から,我々の規制オークションは,最低限の安全基準を強制する単純な規制枠組みよりも,安全率と参加率を20%,参加率を15%向上させることが示された。
関連論文リスト
- Beyond Benchmarks: On The False Promise of AI Regulation [13.125853211532196]
有効な科学的規制は、観測可能なテスト結果と将来のパフォーマンスを結びつける因果理論を必要とすることを示す。
本研究では,学習データから複雑な統計的パターンを明示的な因果関係なく学習する深層学習モデルにおいて,そのような保証を妨げていることを示す。
論文 参考訳(メタデータ) (2025-01-26T22:43:07Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Dilemma of Uncertainty Estimation for General Purpose AI in the EU AI Act [6.9060054915724]
AI法は、欧州連合全体のAIシステムの規制である。
我々は、不確実性推定が、実世界でモデルをデプロイするために必要なコンポーネントであるべきだと論じる。
論文 参考訳(メタデータ) (2024-08-20T23:59:51Z) - Certified Safe: A Schematic for Approval Regulation of Frontier AI [0.0]
承認規制スキームは、企業が法的に市場を拡大できない場合や、場合によっては、規制当局の明確な承認なしに製品を開発する場合である。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
論文 参考訳(メタデータ) (2024-08-12T15:01:03Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - Exterior Penalty Policy Optimization with Penalty Metric Network under Constraints [52.37099916582462]
制約強化学習(CRL:Constrained Reinforcement Learning)では、エージェントが制約を満たしながら最適なポリシーを学習するために環境を探索する。
我々は,刑罰科目ネットワーク(PMN)が生み出す適応的な罰則を持つ,理論的に保証された刑罰関数法(Exterior Penalty Policy Optimization (EPO))を提案する。
PMNは様々な制約違反に適切に対応し、効率的な制約満足度と安全な探索を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:57:32Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Regulating ChatGPT and other Large Generative AI Models [0.0]
大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
論文 参考訳(メタデータ) (2023-02-05T08:56:45Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。