論文の概要: Reclaiming Constitutional Authority of Algorithmic Power
- arxiv url: http://arxiv.org/abs/2508.11699v1
- Date: Tue, 12 Aug 2025 23:46:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.276951
- Title: Reclaiming Constitutional Authority of Algorithmic Power
- Title(参考訳): アルゴリズム力の憲法的権限の回復
- Authors: Yiyang Mei, Michael J Broyde,
- Abstract要約: AIの統治はもはや技術的規制の問題ではない。
本条は、連帯権力と法的抵抗権に基づく憲法の枠組みを再構築する。
個人は、正統性や良心の領域を強要するシステムに抵抗する憲法上の権利を保有する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whether and how to govern AI is no longer a question of technical regulation. It is a question of constitutional authority. Across jurisdictions, algorithmic systems now perform functions once reserved to public institutions: allocating welfare, determining legal status, mediating access to housing, employment, and healthcare. These are not merely administrative operations. They are acts of rule. Yet the dominant models of AI governance fail to confront this reality. The European approach centers on rights-based oversight, presenting its regulatory framework as a principled defense of human dignity. The American model relies on decentralized experimentation, treating fragmentation as a proxy for democratic legitimacy. Both, in different ways, evade the structural question: who authorizes algorithmic power, through what institutions, and on what terms. This Article offers an alternative. Drawing from early modern Reformed political thought, it reconstructs a constitutional framework grounded in covenantal authority and the right of lawful resistance. It argues that algorithmic governance must rest on three principles. First, that all public power must be lawfully delegated through participatory authorization. Second, that authority must be structured across representative communities with the standing to consent, contest, or refuse. Third, that individuals retain a constitutional right to resist systems that impose orthodoxy or erode the domain of conscience. These principles are then operationalized through doctrinal analysis of federalism, nondelegation, compelled speech, and structural accountability. On this view, the legitimacy of algorithmic governance turns not on procedural safeguards or policy design, but on whether it reflects a constitutional order in which power is authorized by the governed, constrained by law, and answerable to those it affects.
- Abstract(参考訳): AIの統治はもはや技術的規制の問題ではない。
憲法上の権威の問題である。
法域全体にまたがって、アルゴリズムシステムは、福祉の割り当て、法的地位の決定、住宅、雇用、医療へのアクセスの仲介など、公共機関に割り当てられた機能を実行している。
これらは単なる行政活動ではない。
それらはルールの行為です。
しかし、AIガバナンスの主流モデルは、この現実に逆らわない。
欧州のアプローチは人権に基づく監視に重点を置いており、その規制枠組みを人間の尊厳を守る原則として提示している。
アメリカのモデルは、分権的な実験に頼っており、断片化を民主的正当性の代行として扱う。
どちらも異なる方法で、どの機関、どの用語で、誰がアルゴリズムの権限を認可するかという構造的な問題を避けます。
本条は代替案である。
近世の改革的政治思想を参考に、連帯権力と法的な抵抗権に基づく憲法の枠組みを再構築した。
アルゴリズムガバナンスは3つの原則に従わなければならない、と氏は主張する。
第一に、すべての公的な権力は、参加的承認を通じて法的に委任されなければならない。
第二に、その権限は、同意、異議を唱え、拒否する立場にある代表的共同体にまたがって構成されなければならない。
第三に、個人は、正統性や良心の領域を強要するシステムに抵抗する憲法上の権利を保有する。
これらの原則は、連邦主義、非立法、強制演説、構造的説明責任の教義分析によって運用される。
この見解では、アルゴリズムガバナンスの正当性は、手続き的保護や政策設計ではなく、統治者によって権限が認められ、法律によって制限され、それが影響する者に答えられるという憲法上の命令を反映しているかどうかである。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt [44.522343543870804]
我々は、道徳的多様性の持続性を見落としているようなシステムが、抵抗を引き起こし、信頼を失わせ、制度を不安定化するのではないかと心配している。
理想的な条件下では、合理的なエージェントは単一の倫理上の会話の限界に収束するという考えである。
我々は、この前提をオプション的かつ疑わしいものとみなし、紛争理論、文化進化、マルチエージェントシステム、制度経済学に基づく代替アプローチとして、適切性枠組みと呼ぶものを提案する。
論文 参考訳(メタデータ) (2025-05-08T12:55:07Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - The Illusory Normativity of Rights-Based AI Regulation [0.0]
我々は、EUのAI規制を取り巻く権利に基づく物語が、その制度設計の論理を誤認していると論じる。
我々の目標は、アメリカのモデルを支持するのではなく、EUアプローチが規範的理想を反映しているという前提を拒絶することです。
論文 参考訳(メタデータ) (2025-02-27T03:05:32Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Legitimacy, Authority, and Democratic Duties of Explanation [0.0]
秘密で複雑で不可解な計算システムは、既存の電力関係を強化するために使われている。
本稿では,まず不透明な計算システムに適用し,民主的価値を満たすためにどのような説明が必要なのかを明確にする。
論文 参考訳(メタデータ) (2022-08-18T04:24:28Z) - The Flaws of Policies Requiring Human Oversight of Government Algorithms [2.741266294612776]
政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
まず、政府機関はアルゴリズムを意思決定に組み込むのが適切であることを正当化しなければならない。
第二に、これらの正当化は、政府機関がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
論文 参考訳(メタデータ) (2021-09-10T18:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。