論文の概要: The Chancellor Trap: Administrative Mediation and the Hollowing of Sovereignty in the Algorithmic Age
- arxiv url: http://arxiv.org/abs/2602.18474v1
- Date: Mon, 09 Feb 2026 07:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.599383
- Title: The Chancellor Trap: Administrative Mediation and the Hollowing of Sovereignty in the Algorithmic Age
- Title(参考訳): 司会のことば : アルゴリズム時代の行政的待遇と良心のホロウイング
- Authors: Xuechen Niu,
- Abstract要約: 高スループットの組織では、AIによる意思決定サポートによって、失敗が公然と合法化され、政治的に競合する可能性を減らすことができる。
本稿は、この力学を検証ギャップを特徴とする主エージェント問題として定式化する。
ガバナンスシステムは、失敗を内部的に吸収し解決する上で、より効果的になり、同時に、これらの失敗が政治的に目に見えるしきい値を上げる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contemporary governance discourse on Artificial Intelligence often emphasizes catastrophic loss-of-control scenarios. This article suggests that such framing may obscure a more immediate failure mode: chancellorization, or the gradual hollowing out of sovereignty through administrative mediation. In high-throughput, digitally legible organizations, AI-mediated decision support can reduce the probability that failures become publicly legible and politically contestable, even when underlying operational risk does not decline. Drawing on the institutional history of Imperial China, the article formalizes this dynamic as a principal-agent problem characterized by a verification gap, in which formal authority (auctoritas) remains downstream while effective governing capacity (potestas) migrates to intermediary layers that control information routing, drafting defaults, and evaluative signals. Empirical support is provided through a multi-method design combining historical process tracing with a cross-national panel plausibility probe (2016-2024). Using incident-based measures of publicly recorded AI failures and administrative digitization indicators, the analysis finds that higher state capacity and digitalization are systematically associated with lower public visibility of AI failures, holding AI ecosystem expansion constant. The results are consistent with a paradox of competence: governance systems may become more effective at absorbing and resolving failures internally while simultaneously raising the threshold at which those failures become politically visible. Preserving meaningful human sovereignty therefore depends on institutional designs that deliberately reintroduce auditable friction.
- Abstract(参考訳): 人工知能に関する現代の統治談話は、しばしば破滅的な制御の喪失のシナリオを強調している。
この記事では、このようなフレーミングが、より直接的な失敗モード、すなわち、世論化や、行政調停による主権の段階的な空洞化を曖昧にするかもしれないことを示唆する。
高スループットでディジタルで正当性のある組織では、AIによる意思決定支援は、基盤となる運用リスクが低下しない場合でも、失敗が公的な正当性と政治的に競合する可能性を減らすことができる。
中国帝国の制度史を参考に、本論文は、このダイナミクスを、情報ルーティング、デフォルトの起草、評価信号を制御する中間層に移行しつつ、正式な権威(オークタタス)が下流に留まる検証ギャップを特徴とする主エージェント問題として定式化している。
歴史的プロセストレースと国家間パネル可視性プローブ(2016-2024)を組み合わせたマルチメタル設計による実証支援が提供される。
この分析は、公に記録されたAI障害と管理上のデジタル化指標のインシデントベースの測定を用いて、より高い状態容量とデジタル化がAI障害の公的な可視性の低下と体系的に関連していることを発見し、AIエコシステムの膨張を一定に保った。
ガバナンスシステムは、失敗を内部的に吸収し解決する上で、より効果的になり、同時に、これらの失敗が政治的に目に見えるしきい値を上げる。
したがって、意味のある人間の主権を維持することは、聴覚的な摩擦を意図的に再導入する制度的な設計に依存する。
関連論文リスト
- Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap [0.0]
1887年以降、行政法は「能力と責任の罠」をナビゲートしてきた。
本条では,この可能性を実現するために行政法における教義改革を3つ提案する。
論文 参考訳(メタデータ) (2026-02-10T11:36:01Z) - Agentic Uncertainty Quantification [76.94013626702183]
本稿では,言語化された不確実性をアクティブな双方向制御信号に変換する統合されたデュアルプロセスエージェントUQ(AUQ)フレームワークを提案する。
システム1(Uncertainty-Aware Memory, UAM)とシステム2(Uncertainty-Aware Reflection, UAR)は、これらの説明を合理的な手段として利用し、必要な時にのみターゲットの推論時間解決をトリガーする。
論文 参考訳(メタデータ) (2026-01-22T07:16:26Z) - Managing Ambiguity: A Proof of Concept of Human-AI Symbiotic Sense-making based on Quantum-Inspired Cognitive Mechanism of Rogue Variable Detection [39.146761527401424]
この研究は、あいまいさを一級構成とすることで管理理論に寄与する。
VUCA環境における組織的レジリエンスに対する人間-AI共生の実践的価値を示す。
論文 参考訳(メタデータ) (2025-12-17T11:23:18Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Benchmarking is Broken -- Don't Let AI be its Own Judge [22.93026946593552]
私たちは、AIを評価するための現在のlaissez-faireアプローチは持続不可能である、と論じます。
PeerBenchは、コミュニティが管理し、熟達した評価青写真である。
私たちのゴールは、完全性を回復し、真に信頼できるAI進歩の手段を提供するための評価の道を開くことです。
論文 参考訳(メタデータ) (2025-10-08T21:41:37Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。