論文の概要: Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap
- arxiv url: http://arxiv.org/abs/2602.09678v1
- Date: Tue, 10 Feb 2026 11:36:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.509984
- Title: Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap
- Title(参考訳): 行政法における第4の決着 - AIと能力保証のトラップ
- Authors: Nicholas Caputo,
- Abstract要約: 1887年以降、行政法は「能力と責任の罠」をナビゲートしてきた。
本条では,この可能性を実現するために行政法における教義改革を3つ提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 1887, administrative law has navigated a "capability-accountability trap": technological change forces government to become more sophisticated, but sophistication renders agencies opaque to generalist overseers like the courts and Congress. The law's response--substituting procedural review for substantive oversight--has produced a sedimentary accretion of requirements that ossify capacity without ensuring democratic control. This Article argues that the Supreme Court's post-Loper Bright retrenchment is best understood as an effort to shrink administration back to comprehensible size in response to this complexification. But reducing complexity in this way sacrifices capability precisely when climate change, pandemics, and AI risks demand more sophisticated governance. AI offers a different path. Unlike many prior administrative technologies that increased opacity alongside capacity, AI can help build "scrutability" in government, translating technical complexity into accessible terms, surfacing the assumptions that matter for oversight, and enabling substantive verification of agency reasoning. This Article proposes three doctrinal innovations within administrative law to realize this potential: a Model and System Dossier (documenting model purpose, evaluation, monitoring, and versioning) extending the administrative record to AI decision-making; a material-model-change trigger specifying when AI updates require new process; and a "deference to audit" standard that rewards agencies for auditable evaluation of their AI tools. The result is a framework for what this Article calls the "Fourth Settlement," administrative law that escapes the capability-accountability trap by preserving capability while restoring comprehensible oversight of administration.
- Abstract(参考訳): 1887年以降、行政法は「能力と責任の罠」をナビゲートし、技術的変化によって政府はより洗練されていくが、高度化により、裁判所や議会のような一般の監督者には不透明になっている。
法律の対応-実質的監視の手続き的見直し--は、民主的な支配を確実にすることなく、容量を骨抜きにする要求を堆積的に付加した。
本条は、最高裁判所のポスト・クーパー・ライト・リトレンチは、この複雑化に対応して行政の規模を縮小する努力として最もよく理解されていると論じる。
しかし、この方法で複雑さを減らすことは、気候変動、パンデミック、AIリスクがより高度なガバナンスを要求する場合に、正確に能力の犠牲になる。
AIは別の道を提供する。
キャパシティとともに不透明度を増大させる多くの従来の管理技術とは異なり、AIは政府の"監視可能性"を構築するのに役立ち、技術的複雑さをアクセス可能な用語に翻訳し、監視上重要な仮定を克服し、エージェンシー推論の実質的な検証を可能にする。
本稿では,この可能性を実現するための行政法における教義的革新として,管理記録をAI意思決定に拡張するモデル・システム・ドシエ(文書化モデル目的,評価,監視,バージョニング),AI更新に新たなプロセスが必要かを指定するマテリアル・モデル・インジケータ,AIツールを監査可能な評価に報いる「監査基準」の3つを提案する。
その結果,本条でいう「第4次居留地」の枠組みは,行政の包括的監督を回復しつつ,能力維持による能力確保の罠から逃れる行政法である。
関連論文リスト
- The Chancellor Trap: Administrative Mediation and the Hollowing of Sovereignty in the Algorithmic Age [0.0]
高スループットの組織では、AIによる意思決定サポートによって、失敗が公然と合法化され、政治的に競合する可能性を減らすことができる。
本稿は、この力学を検証ギャップを特徴とする主エージェント問題として定式化する。
ガバナンスシステムは、失敗を内部的に吸収し解決する上で、より効果的になり、同時に、これらの失敗が政治的に目に見えるしきい値を上げる。
論文 参考訳(メタデータ) (2026-02-09T07:28:44Z) - Position: Human-Centric AI Requires a Minimum Viable Level of Human Understanding [26.14684888478043]
本稿では、透明性、ユーザコントロール、リテラシー、ガバナンスに対する一般的なアプローチは、人間が持続的なAIデリゲートの下で監視し続けなければならないという基本的な理解を定義していない、と論じる。
これを形式化するために、認知統合閾値(CIT)を、AI支援下での監視、自律性、説明責任な参加を維持するために必要な最小限の理解として定義する。
論文 参考訳(メタデータ) (2026-01-31T18:37:33Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Limits of Safe AI Deployment: Differentiating Oversight and Control [0.0]
「Human oversight」は、監視や制御といった重要な概念の曖昧さや矛盾した解釈を成すリスクである。
本稿では,AI以外の文献の監視を対象とする批判的レビューを行う。
コントロールは失敗を防ぐことを目的としており、監視は将来の予防のための検出、修復、インセンティブに焦点を当てている。
論文 参考訳(メタデータ) (2025-07-04T12:22:35Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。