論文の概要: The Backfiring Effect of Weak AI Safety Regulation
- arxiv url: http://arxiv.org/abs/2503.20848v1
- Date: Wed, 26 Mar 2025 16:08:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:47.594352
- Title: The Backfiring Effect of Weak AI Safety Regulation
- Title(参考訳): 弱利きAI安全規制のバックファイリング効果
- Authors: Benjamin Laufer, Jon Kleinberg, Hoda Heidari,
- Abstract要約: 我々は,レギュレータ,汎用AI技術クリエータ,ドメインスペシャリスト間のインタラクションについて検討する。
私たちは、ドメインスペシャリストにのみ課される弱い安全規制が、バックファイアを発生させることに気付きました。
より強く、適切に配置された規制は、実際にはすべてのプレイヤーに利益をもたらすことができる。
- 参考スコア(独自算出の注目度): 9.217996627263219
- License:
- Abstract: Recent policy proposals aim to improve the safety of general-purpose AI, but there is little understanding of the efficacy of different regulatory approaches to AI safety. We present a strategic model that explores the interactions between the regulator, the general-purpose AI technology creators, and domain specialists--those who adapt the AI for specific applications. Our analysis examines how different regulatory measures, targeting different parts of the development chain, affect the outcome of the development process. In particular, we assume AI technology is described by two key attributes: safety and performance. The regulator first sets a minimum safety standard that applies to one or both players, with strict penalties for non-compliance. The general-purpose creator then develops the technology, establishing its initial safety and performance levels. Next, domain specialists refine the AI for their specific use cases, and the resulting revenue is distributed between the specialist and generalist through an ex-ante bargaining process. Our analysis of this game reveals two key insights: First, weak safety regulation imposed only on the domain specialists can backfire. While it might seem logical to regulate use cases (as opposed to the general-purpose technology), our analysis shows that weak regulations targeting domain specialists alone can unintentionally reduce safety. This effect persists across a wide range of settings. Second, in sharp contrast to the previous finding, we observe that stronger, well-placed regulation can in fact benefit all players subjected to it. When regulators impose appropriate safety standards on both AI creators and domain specialists, the regulation functions as a commitment mechanism, leading to safety and performance gains, surpassing what is achieved under no regulation or regulating one player only.
- Abstract(参考訳): 近年の政策提案は、汎用AIの安全性向上を目的としているが、AIの安全性に対する異なる規制アプローチの有効性についてはほとんど理解されていない。
我々は、規制当局、汎用AI技術クリエーター、そして特定のアプリケーションにAIを適用するドメインスペシャリストとの相互作用を探求する戦略モデルを提示します。
本分析では,開発チェーンの異なる部分を対象にした異なる規制措置が開発プロセスの成果にどのように影響するかを検討する。
特に、AI技術は安全性とパフォーマンスの2つの重要な属性によって説明されていると仮定する。
規制当局はまず1人または両方に適用される最低限の安全基準を設定し、非コンプライアンスに対する厳格な罰を課す。
汎用クリエーターはその後、その技術を開発し、その最初の安全性とパフォーマンスのレベルを確立する。
次に、ドメインスペシャリストは、特定のユースケースのためにAIを洗練し、その結果の収益は、元アンティー取引プロセスを通じて、専門家とジェネラリストの間で分配される。
第一に、ドメインの専門家にのみ課される弱い安全規制は、バックファイアを可能にします。
汎用技術とは対照的に)ユースケースを規制することは理にかなっているように思えるが、我々の分析は、ドメインの専門家のみを対象とした弱い規制は、意図せず安全性を低下させる可能性があることを示している。
この効果は幅広い設定で持続する。
第二に、前回の発見とは対照的に、より強く、適切に配置された規制が、実際にはすべてのプレイヤーに利益をもたらすことを観察する。
規制当局がAIクリエーターとドメインスペシャリストの両方に適切な安全基準を課すと、規制はコミットメントメカニズムとして機能し、安全とパフォーマンスの向上につながります。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - From Principles to Rules: A Regulatory Approach for Frontier AI [2.1764247401772705]
レギュレータは、フロンティアAI開発者に安全対策を適用するよう要求する。
要件は、ハイレベルな原則や特定のルールとして定式化できる。
これらの規制アプローチは「原則ベース」および「ルールベース」規制と呼ばれ、補完的な強みと弱みを持っている。
論文 参考訳(メタデータ) (2024-07-10T01:45:15Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Regulating ChatGPT and other Large Generative AI Models [0.0]
大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
論文 参考訳(メタデータ) (2023-02-05T08:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。