論文の概要: Nirvana AI Governance: How AI Policymaking Is Committing Three Old Fallacies
- arxiv url: http://arxiv.org/abs/2501.10384v1
- Date: Wed, 18 Dec 2024 07:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 07:18:59.212963
- Title: Nirvana AI Governance: How AI Policymaking Is Committing Three Old Fallacies
- Title(参考訳): Nirvana AIガバナンス:AI政策は3つの古いファラキリを創造する
- Authors: Jiawei Zhang,
- Abstract要約: 私は現在のAI規制提案の根本的な欠陥を明らかにします。
一部のコメンテーターは、人々は機械よりも信頼性が高いと直感的に信じている。
一部の政策立案者や研究者は、損害とコストが彼らの提案に固有のものであるという事実に気付いていない。
- 参考スコア(独自算出の注目度): 8.168523242105763
- License:
- Abstract: This research applies Harold Demsetz's concept of the nirvana approach to the realm of AI governance and debunks three common fallacies in various AI policy proposals--"the grass is always greener on the other side," "free lunch," and "the people could be different." Through this, I expose fundamental flaws in the current AI regulatory proposal. First, some commentators intuitively believe that people are more reliable than machines and that government works better in risk control than companies' self-regulation, but they do not fully compare the differences between the status quo and the proposed replacements. Second, when proposing some regulatory tools, some policymakers and researchers do not realize and even gloss over the fact that harms and costs are also inherent in their proposals. Third, some policy proposals are initiated based on a false comparison between the AI-driven world, where AI does lead to some risks, and an entirely idealized world, where no risk exists at all. However, the appropriate approach is to compare the world where AI causes risks to the real world where risks are everywhere, but people can live well with these risks. The prevalence of these fallacies in AI governance underscores a broader issue: the tendency to idealize potential solutions without fully considering their real-world implications. This idealization can lead to regulatory proposals that are not only impractical but potentially harmful to innovation and societal progress.
- Abstract(参考訳): この研究は、ハロルド・デムセッツ(Harold Demsetz)の「ニルヴァナ・アプローチ」の概念をAIガバナンスの領域に適用し、様々なAI政策提案で一般的な3つの誤りを解消する。
これを通じて、現在のAI規制提案の根本的な欠陥を明らかにします。
第一に、人々は機械よりも信頼性が高く、政府は企業の自己規制よりもリスク管理に優れていると直感的に信じる者もいるが、現状と代替案の相違を十分に比較していない。
第二に、いくつかの規制ツールを提案するとき、一部の政策立案者や研究者は、損害やコストも提案に固有のものであるという事実に気付きさえしない。
第三に、いくつかの政策提案は、AIがいくつかのリスクをもたらすAI駆動の世界と、全くリスクがない完全に理想化された世界との誤った比較に基づいて開始される。
しかし、適切なアプローチは、AIがリスクを引き起こす世界と、リスクがどこにでもある現実世界を比較することである。
AIガバナンスにおけるこれらの誤った傾向は、より広範な課題を浮き彫りにしている。
この理想化は、非現実的ではなく、イノベーションや社会的進歩に有害な規制提案につながる可能性がある。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Shaping AI's Impact on Billions of Lives [27.78474296888659]
我々は、AI実践者のコミュニティが、共通の善のために意識的に、積極的に働くことを主張する。
本稿は、新しいタイプのイノベーション基盤の青写真を提供する。
論文 参考訳(メタデータ) (2024-12-03T16:29:37Z) - Comparative Global AI Regulation: Policy Perspectives from the EU, China, and the US [0.0]
本稿は、EU、中国、米国による3つの異なるアプローチを比較した。
米国内では、連邦レベルでも州レベルでもAI規制を探求し、カリフォルニア州の差し迫った上院法案1047に焦点をあてています。
論文 参考訳(メタデータ) (2024-10-05T18:08:48Z) - Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Three lines of defense against risks from AI [0.0]
AIリスク管理の責任者は必ずしも明確ではない。
3つの防衛ライン(3LoD)モデルは、多くの産業でベストプラクティスと考えられている。
私は、AI企業がモデルを実装できる方法を提案する。
論文 参考訳(メタデータ) (2022-12-16T09:33:00Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。