論文の概要: The Backfiring Effect of Weak AI Safety Regulation
- arxiv url: http://arxiv.org/abs/2503.20848v1
- Date: Wed, 26 Mar 2025 16:08:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 18:49:11.262589
- Title: The Backfiring Effect of Weak AI Safety Regulation
- Title(参考訳): 弱利きAI安全規制のバックファイリング効果
- Authors: Benjamin Laufer, Jon Kleinberg, Hoda Heidari,
- Abstract要約: 我々は,レギュレータ,汎用AI技術クリエータ,ドメインスペシャリスト間のインタラクションについて検討する。
私たちは、ドメインスペシャリストにのみ課される弱い安全規制が、バックファイアを発生させることに気付きました。
より強く、適切に配置された規制は、実際にはすべてのプレイヤーに利益をもたらすことができる。
- 参考スコア(独自算出の注目度): 9.217996627263219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent policy proposals aim to improve the safety of general-purpose AI, but there is little understanding of the efficacy of different regulatory approaches to AI safety. We present a strategic model that explores the interactions between the regulator, the general-purpose AI technology creators, and domain specialists--those who adapt the AI for specific applications. Our analysis examines how different regulatory measures, targeting different parts of the development chain, affect the outcome of the development process. In particular, we assume AI technology is described by two key attributes: safety and performance. The regulator first sets a minimum safety standard that applies to one or both players, with strict penalties for non-compliance. The general-purpose creator then develops the technology, establishing its initial safety and performance levels. Next, domain specialists refine the AI for their specific use cases, and the resulting revenue is distributed between the specialist and generalist through an ex-ante bargaining process. Our analysis of this game reveals two key insights: First, weak safety regulation imposed only on the domain specialists can backfire. While it might seem logical to regulate use cases (as opposed to the general-purpose technology), our analysis shows that weak regulations targeting domain specialists alone can unintentionally reduce safety. This effect persists across a wide range of settings. Second, in sharp contrast to the previous finding, we observe that stronger, well-placed regulation can in fact benefit all players subjected to it. When regulators impose appropriate safety standards on both AI creators and domain specialists, the regulation functions as a commitment mechanism, leading to safety and performance gains, surpassing what is achieved under no regulation or regulating one player only.
- Abstract(参考訳): 近年の政策提案は、汎用AIの安全性向上を目的としているが、AIの安全性に対する異なる規制アプローチの有効性についてはほとんど理解されていない。
我々は、規制当局、汎用AI技術クリエーター、そして特定のアプリケーションにAIを適用するドメインスペシャリストとの相互作用を探求する戦略モデルを提示します。
本分析では,開発チェーンの異なる部分を対象にした異なる規制措置が開発プロセスの成果にどのように影響するかを検討する。
特に、AI技術は安全性とパフォーマンスの2つの重要な属性によって説明されていると仮定する。
規制当局はまず1人または両方に適用される最低限の安全基準を設定し、非コンプライアンスに対する厳格な罰を課す。
汎用クリエーターはその後、その技術を開発し、その最初の安全性とパフォーマンスのレベルを確立する。
次に、ドメインスペシャリストは、特定のユースケースのためにAIを洗練し、その結果の収益は、元アンティー取引プロセスを通じて、専門家とジェネラリストの間で分配される。
第一に、ドメインの専門家にのみ課される弱い安全規制は、バックファイアを可能にします。
汎用技術とは対照的に)ユースケースを規制することは理にかなっているように思えるが、我々の分析は、ドメインの専門家のみを対象とした弱い規制は、意図せず安全性を低下させる可能性があることを示している。
この効果は幅広い設定で持続する。
第二に、前回の発見とは対照的に、より強く、適切に配置された規制が、実際にはすべてのプレイヤーに利益をもたらすことを観察する。
規制当局がAIクリエーターとドメインスペシャリストの両方に適切な安全基準を課すと、規制はコミットメントメカニズムとして機能し、安全とパフォーマンスの向上につながります。
関連論文リスト
- Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - The BIG Argument for AI Safety Cases [4.0675753909100445]
BIGの議論は、さまざまな能力、自律性、臨界性を持つAIシステムの安全ケースを構築するためのシステム全体のアプローチを採用する。
安全性と、プライバシーや株式といった他の重要な倫理的問題に対処することでバランスがとれる。
安全保証の社会的、倫理的、技術的側面を、追跡可能で説明可能な方法でまとめることによって統合される。
論文 参考訳(メタデータ) (2025-03-12T11:33:28Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Auction-Based Regulation for Artificial Intelligence [28.86995747151915]
規制当局は、AIの展開が壊れた後に残された安全、偏見、法的な破片をゆっくりと拾い上げている。
本稿では,デバイスに適合したモデルをデプロイする動機付けを確実に行う,オークションベースの規制機構を提案する。
規制入札は,基準規制機構と比較して,コンプライアンス率を20%,参加率を15%向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:02Z) - From Principles to Rules: A Regulatory Approach for Frontier AI [2.1764247401772705]
レギュレータは、フロンティアAI開発者に安全対策を適用するよう要求する。
要件は、ハイレベルな原則や特定のルールとして定式化できる。
これらの規制アプローチは「原則ベース」および「ルールベース」規制と呼ばれ、補完的な強みと弱みを持っている。
論文 参考訳(メタデータ) (2024-07-10T01:45:15Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Regulating ChatGPT and other Large Generative AI Models [0.0]
大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
論文 参考訳(メタデータ) (2023-02-05T08:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。