論文の概要: Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap
- arxiv url: http://arxiv.org/abs/2602.09678v1
- Date: Tue, 10 Feb 2026 11:36:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.509984
- Title: Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap
- Title(参考訳): 行政法における第4の決着 - AIと能力保証のトラップ
- Authors: Nicholas Caputo,
- Abstract要約: 1887年以降、行政法は「能力と責任の罠」をナビゲートしてきた。
本条では,この可能性を実現するために行政法における教義改革を3つ提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 1887, administrative law has navigated a "capability-accountability trap": technological change forces government to become more sophisticated, but sophistication renders agencies opaque to generalist overseers like the courts and Congress. The law's response--substituting procedural review for substantive oversight--has produced a sedimentary accretion of requirements that ossify capacity without ensuring democratic control. This Article argues that the Supreme Court's post-Loper Bright retrenchment is best understood as an effort to shrink administration back to comprehensible size in response to this complexification. But reducing complexity in this way sacrifices capability precisely when climate change, pandemics, and AI risks demand more sophisticated governance. AI offers a different path. Unlike many prior administrative technologies that increased opacity alongside capacity, AI can help build "scrutability" in government, translating technical complexity into accessible terms, surfacing the assumptions that matter for oversight, and enabling substantive verification of agency reasoning. This Article proposes three doctrinal innovations within administrative law to realize this potential: a Model and System Dossier (documenting model purpose, evaluation, monitoring, and versioning) extending the administrative record to AI decision-making; a material-model-change trigger specifying when AI updates require new process; and a "deference to audit" standard that rewards agencies for auditable evaluation of their AI tools. The result is a framework for what this Article calls the "Fourth Settlement," administrative law that escapes the capability-accountability trap by preserving capability while restoring comprehensible oversight of administration.
- Abstract(参考訳): 1887年以降、行政法は「能力と責任の罠」をナビゲートし、技術的変化によって政府はより洗練されていくが、高度化により、裁判所や議会のような一般の監督者には不透明になっている。
法律の対応-実質的監視の手続き的見直し--は、民主的な支配を確実にすることなく、容量を骨抜きにする要求を堆積的に付加した。
本条は、最高裁判所のポスト・クーパー・ライト・リトレンチは、この複雑化に対応して行政の規模を縮小する努力として最もよく理解されていると論じる。
しかし、この方法で複雑さを減らすことは、気候変動、パンデミック、AIリスクがより高度なガバナンスを要求する場合に、正確に能力の犠牲になる。
AIは別の道を提供する。
キャパシティとともに不透明度を増大させる多くの従来の管理技術とは異なり、AIは政府の"監視可能性"を構築するのに役立ち、技術的複雑さをアクセス可能な用語に翻訳し、監視上重要な仮定を克服し、エージェンシー推論の実質的な検証を可能にする。
本稿では,この可能性を実現するための行政法における教義的革新として,管理記録をAI意思決定に拡張するモデル・システム・ドシエ(文書化モデル目的,評価,監視,バージョニング),AI更新に新たなプロセスが必要かを指定するマテリアル・モデル・インジケータ,AIツールを監査可能な評価に報いる「監査基準」の3つを提案する。
その結果,本条でいう「第4次居留地」の枠組みは,行政の包括的監督を回復しつつ,能力維持による能力確保の罠から逃れる行政法である。
関連論文リスト
- Position: Human-Centric AI Requires a Minimum Viable Level of Human Understanding [26.14684888478043]
本稿では、透明性、ユーザコントロール、リテラシー、ガバナンスに対する一般的なアプローチは、人間が持続的なAIデリゲートの下で監視し続けなければならないという基本的な理解を定義していない、と論じる。
これを形式化するために、認知統合閾値(CIT)を、AI支援下での監視、自律性、説明責任な参加を維持するために必要な最小限の理解として定義する。
論文 参考訳(メタデータ) (2026-01-31T18:37:33Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Limits of Safe AI Deployment: Differentiating Oversight and Control [0.0]
「Human oversight」は、監視や制御といった重要な概念の曖昧さや矛盾した解釈を成すリスクである。
本稿では,AI以外の文献の監視を対象とする批判的レビューを行う。
コントロールは失敗を防ぐことを目的としており、監視は将来の予防のための検出、修復、インセンティブに焦点を当てている。
論文 参考訳(メタデータ) (2025-07-04T12:22:35Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。