論文の概要: The Illusory Normativity of Rights-Based AI Regulation
- arxiv url: http://arxiv.org/abs/2503.05784v2
- Date: Tue, 12 Aug 2025 23:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 16:17:42.268395
- Title: The Illusory Normativity of Rights-Based AI Regulation
- Title(参考訳): 権利に基づくAI規制のIllusory Normativity
- Authors: Yiyang Mei, Matthew Sag,
- Abstract要約: 我々は、EUのAI規制を取り巻く権利に基づく物語が、その制度設計の論理を誤認していると論じる。
我々の目標は、アメリカのモデルを支持するのではなく、EUアプローチが規範的理想を反映しているという前提を拒絶することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whether and how to regulate AI is now a central question of governance. Across academic, policy, and international legal circles, the European Union is widely treated as the normative leader in this space. Its regulatory framework, anchored in the General Data Protection Regulation, the Digital Services and Markets Acts, and the AI Act, is often portrayed as a principled model grounded in fundamental rights. This Article challenges that assumption. We argue that the rights-based narrative surrounding EU AI regulation mischaracterizes the logic of its institutional design. While rights language pervades EU legal instruments, its function is managerial, not foundational. These rights operate as tools of administrative ordering, used to mitigate technological disruption, manage geopolitical risk, and preserve systemic balance, rather than as expressions of moral autonomy or democratic consent. Drawing on comparative institutional analysis, we situate EU AI governance within a longer tradition of legal ordering shaped by the need to coordinate power across fragmented jurisdictions. We contrast this approach with the American model, which reflects a different regulatory logic rooted in decentralized authority, sectoral pluralism, and a constitutional preference for innovation and individual autonomy. Through case studies in five key domains -- data privacy, cybersecurity, healthcare, labor, and disinformation -- we show that EU regulation is not meaningfully rights-driven, as is often claimed. It is instead structured around the containment of institutional risk. Our aim is not to endorse the American model but to reject the presumption that the EU approach reflects a normative ideal that other nations should uncritically adopt. The EU model is best understood as a historically contingent response to its own political conditions, not a template for others to blindly follow.
- Abstract(参考訳): AIの規制は、今やガバナンスの中心的な問題である。
学術、政策、国際法界全体で、欧州連合はこの分野の規範的指導者として広く扱われている。
一般データ保護規則、デジタルサービスおよび市場法、AI法に規定されている規制の枠組みは、基本的権利に基づく原則化されたモデルとして描かれることが多い。
本条はその前提に異議を唱える。
我々は、EUのAI規制を取り巻く権利に基づく物語が、その制度設計の論理を誤認していると論じる。
権利言語はEUの法的手段に及んでいるが、その機能は管理的であり、基礎的ではない。
これらの権利は行政秩序の道具として機能し、技術的破壊を緩和し、地政学的リスクを管理し、道徳的自治や民主的同意の表現としてではなく、体系的なバランスを維持するために使用される。
比較制度分析に基づいて、我々は、断片化された司法管轄区域にまたがる権力の調整の必要性によって形成された法的な秩序の長い伝統の中で、EUのAIガバナンスを定めている。
我々は、このアプローチを、分散型権威、セクター的多元主義、革新と個人の自律性に対する憲法上の優先に根ざした異なる規制論理を反映したアメリカのモデルと対比する。
データプライバシ、サイバーセキュリティ、医療、労働、偽情報といった5つの主要な領域におけるケーススタディを通じて、EUの規制は、しばしば主張されるように、有意義な権利主導ではないことを示す。
その代わりに、制度上のリスクの封じ込めを中心に構成されている。
我々の目標は、アメリカのモデルを支持するのではなく、EUのアプローチが他国が非批判的に採用すべき規範的理想を反映しているという前提を拒絶することです。
EUのモデルは、歴史的に政治的状況に対する反応であり、他人が盲目的に従うためのテンプレートではないと理解されている。
関連論文リスト
- Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation [0.0]
我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
論文 参考訳(メタデータ) (2025-05-19T19:23:41Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Pitfalls of Evidence-Based AI Policy [13.370321579091387]
目的がエビデンスベースのAIポリシーであるなら、第一の規制目標は、AIリスクを特定し、研究し、検討するプロセスを積極的に促進することである、と我々は主張する。
これを促進するために、ブラジル、カナダ、中国、EU、韓国、英国、米国がそれぞれ、さらなる証拠調査政策を採用する実質的な機会を持っていることを示すための15の規制目標について論じる。
論文 参考訳(メタデータ) (2025-02-13T18:59:30Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance? [0.0]
この章は、AI標準と基本的権利の関係を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
論文 参考訳(メタデータ) (2024-01-23T10:17:42Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。