論文の概要: The Precautionary Principle and the Innovation Principle: Incompatible Guides for AI Innovation Governance?
- arxiv url: http://arxiv.org/abs/2505.02846v1
- Date: Thu, 01 May 2025 17:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.026633
- Title: The Precautionary Principle and the Innovation Principle: Incompatible Guides for AI Innovation Governance?
- Title(参考訳): 予防原則とイノベーション原則:AIイノベーションガバナンスのための非互換ガイド?
- Authors: Kim Kaivanto,
- Abstract要約: 予防原則(PP)とイノベーション原則(IP)はそれぞれの利害団体によって提唱されている。
これらの弱い定式化の本質は、I型エラーコストを完全に考慮する必要があることである。
中間コスト比では、アンバーライトの「待機・監視」ポリシーが最適である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In policy debates concerning the governance and regulation of Artificial Intelligence (AI), both the Precautionary Principle (PP) and the Innovation Principle (IP) are advocated by their respective interest groups. Do these principles offer wholly incompatible and contradictory guidance? Does one necessarily negate the other? I argue here that provided attention is restricted to weak-form PP and IP, the answer to both of these questions is "No." The essence of these weak formulations is the requirement to fully account for type-I error costs arising from erroneously preventing the innovation's diffusion through society (i.e. mistaken regulatory red-lighting) as well as the type-II error costs arising from erroneously allowing the innovation to diffuse through society (i.e. mistaken regulatory green-lighting). Within the Signal Detection Theory (SDT) model developed here, weak-PP red-light (weak-IP green-light) determinations are optimal for sufficiently small (large) ratios of expected type-I to type-II error costs. For intermediate expected cost ratios, an amber-light 'wait-and-monitor' policy is optimal. Regulatory sandbox instruments allow AI testing and experimentation to take place within a structured environment of limited duration and societal scale, whereby the expected cost ratio falls within the 'wait-and-monitor' range. Through sandboxing regulators and innovating firms learn more about the expected cost ratio, and what respective adaptations -- of regulation, of technical solution, of business model, or combination thereof, if any -- are needed to keep the ratio out of the weak-PP red-light zone.
- Abstract(参考訳): 人工知能(AI)のガバナンスと規制に関する政策討論では、それぞれの利害団体によって、予防原則(PP)とイノベーション原則(IP)の両方が提唱されている。
これらの原則は完全な非互換性と矛盾するガイダンスを提供するか?
他方を必ずしも否定するだろうか?
ここでは、注意が弱形PPとIPに限定されていると論じるが、どちらの質問にも答えは「ノー」である。
これらの弱い定式化の本質は、社会を通じたイノベーションの拡散を誤って防止すること(すなわち、規制緩和)から生じるタイプIのエラーコストと、社会を通じてイノベーションが拡散することを誤って許すこと(すなわち、規制緑化)から生じるタイプIIのエラーコストを完全に考慮することである。
ここで開発された信号検出理論(SDT)モデルにおいて、弱いPP赤信号(弱IP緑信号)の判定は、期待されるタイプIとタイプIIの誤差コストの小さい(大きな)比率に最適である。
中間的なコスト比では、アンバーライトの「ウェイト・アンド・モニター」ポリシーが最適である。
規制的なサンドボックス機器は、AIテストと実験を、限られた期間と社会的規模で構造化された環境内で行うことができ、期待されるコスト比は「待機と監視」の範囲に収まる。
サンドボックス化規制当局や革新企業を通じて、予想されるコスト比や、規制、技術ソリューション、ビジネスモデル、あるいはその組み合わせのそれぞれの適応について、弱いPP赤信号ゾーンからその比率を遠ざけるために必要となるものについて、より深く学ぶ。
関連論文リスト
- Reinsuring AI: Energy, Agriculture, Finance & Medicine as Precedents for Scalable Governance of Frontier Artificial Intelligence [0.0]
本稿では,3階層の保険アーキテクチャを通じて,このようなハイテイクモデルを管理するための新しい枠組みを提案する。
連邦政府が、脆弱な規制や予測ライセンス制度に頼ることなく、民間のAI保険市場を安定させる方法を示している。
論文 参考訳(メタデータ) (2025-04-02T21:02:19Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Auction-Based Regulation for Artificial Intelligence [28.86995747151915]
規制当局は、AIの展開が壊れた後に残された安全、偏見、法的な破片をゆっくりと拾い上げている。
本稿では,デバイスに適合したモデルをデプロイする動機付けを確実に行う,オークションベースの規制機構を提案する。
規制入札は,基準規制機構と比較して,コンプライアンス率を20%,参加率を15%向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:02Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - The Dual Imperative: Innovation and Regulation in the AI Era [0.0]
本稿では,人工知能における規制の欠如に伴う社会的コストについて論じる。
50年以上にわたるAI研究は、AIを主流に、有望な経済的利益へと押し上げてきた。
この談話は、加速主義者と、未発の技術的進歩を提唱するドーマー、そしてディストピア的な結果を防ぐための減速を求めるドーマーの間で偏在している。
論文 参考訳(メタデータ) (2024-05-23T08:26:25Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Regulating ChatGPT and other Large Generative AI Models [0.0]
大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
論文 参考訳(メタデータ) (2023-02-05T08:56:45Z) - Online Learning under Budget and ROI Constraints via Weak Adaptivity [57.097119428915796]
制約付きオンライン学習問題に対する既存の原始双対アルゴリズムは、2つの基本的な仮定に依存している。
このような仮定は、標準の原始双対テンプレートを弱適応的後悔最小化器で与えることによって、どのように回避できるのかを示す。
上記の2つの前提が満たされていない場合に保証される、世界の最高の保証を証明します。
論文 参考訳(メタデータ) (2023-02-02T16:30:33Z) - Regulation conform DLT-operable payment adapter based on trustless -
justified trust combined generalized state channels [77.34726150561087]
物の経済(EoT)は、ピアツーピアの信頼性のないネットワークで動作するソフトウェアエージェントに基づいています。
基本的価値と技術的可能性が異なる現在のソリューションの概要を述べる。
我々は,暗号ベースの分散型の信頼できない要素の強みと,確立された,十分に規制された支払い手段を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-03T10:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。