論文の概要: The Illusion of Rights based AI Regulation
- arxiv url: http://arxiv.org/abs/2503.05784v1
- Date: Thu, 27 Feb 2025 03:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 08:47:12.643434
- Title: The Illusion of Rights based AI Regulation
- Title(参考訳): 権利に基づくAI規制の幻滅
- Authors: Yiyang Mei, Matthew Sag,
- Abstract要約: 我々は、EUのAI規制が、特定の文化的、政治的、歴史的文脈の論理的な展開であることを示す。
我々は、EUの規制枠組みとそのルールの物質が普遍的な命令として採用されるべきであると主張する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Whether and how to regulate AI is one of the defining questions of our times - a question that is being debated locally, nationally, and internationally. We argue that much of this debate is proceeding on a false premise. Specifically, our article challenges the prevailing academic consensus that the European Union's AI regulatory framework is fundamentally rights-driven and the correlative presumption that other rights-regarding nations should therefore follow Europe's lead in AI regulation. Rather than taking rights language in EU rules and regulations at face value, we show how EU AI regulation is the logical outgrowth of a particular cultural, political, and historical context. We show that although instruments like the General Data Protection Regulation (GDPR) and the AI Act invoke the language of fundamental rights, these rights are instrumentalized - used as rhetorical cover for governance tools that address systemic risks and maintain institutional stability. As such, we reject claims that the EU's regulatory framework and the substance of its rules should be adopted as universal imperatives and transplanted to other liberal democracies. To add weight to our argument from historical context, we conduct a comparative analysis of AI regulation in five contested domains: data privacy, cybersecurity, healthcare, labor, and misinformation. This EU-US comparison shows that the EU's regulatory architecture is not meaningfully rights-based. Our article's key intervention in AI policy debates is not to suggest that the current American regulatory model is necessarily preferable but that the presumed legitimacy of the EU's AI regulatory approach must be abandoned.
- Abstract(参考訳): AIの規制方法が、私たちの時代の決定的な疑問の1つであり、ローカル、全国、そして国際的に議論されている。
この議論の多くは虚偽の前提で進められていると我々は主張する。
具体的には、EUのAI規制フレームワークが基本的に権利駆動であるという一般的な学術的合意と、他の人権を尊重する国家が欧州のAI規制に従わなければならないという相関的な前提に異議を唱えます。
EUの規則や規制に対面して権利言語を採用するのではなく、EUのAI規制が、特定の文化的、政治的、歴史的文脈の論理的なアウトグロースであることを示す。
我々は、GDPR(General Data Protection Regulation)やAI Act(AI法)のような手段が基本的権利の言語を呼び出すが、これらの権利は、体系的なリスクに対処し、制度的な安定性を維持するためのガバナンスツールの修辞的カバーとして使用される。
したがって、EUの規制枠組みとルールの物質が普遍的な命令として採用され、他のリベラル民主主義に移植されるべきだという主張を拒否する。
データプライバシ、サイバーセキュリティ、医療、労働、誤情報という5つのドメインで、AI規制の比較分析を実施しました。
このEUと米国の比較は、EUの規制アーキテクチャが有意義な権利ベースではないことを示している。
この記事のAIポリシーに関する議論における重要な介入は、現在のアメリカの規制モデルが必ずしも好まれているのではなく、EUのAI規制アプローチの仮定された正当性は放棄されるべきであることを示唆するものである。
関連論文リスト
- Pitfalls of Evidence-Based AI Policy [13.370321579091387]
目的がエビデンスベースのAIポリシーであるなら、第一の規制目標は、AIリスクを特定し、研究し、検討するプロセスを積極的に促進することである、と我々は主張する。
これを促進するために、ブラジル、カナダ、中国、EU、韓国、英国、米国がそれぞれ、さらなる証拠調査政策を採用する実質的な機会を持っていることを示すための15の規制目標について論じる。
論文 参考訳(メタデータ) (2025-02-13T18:59:30Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance? [0.0]
この章は、AI標準と基本的権利の関係を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
論文 参考訳(メタデータ) (2024-01-23T10:17:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。