論文の概要: Artificial Intelligence in Government: Why People Feel They Lose Control
- arxiv url: http://arxiv.org/abs/2505.01085v1
- Date: Fri, 02 May 2025 07:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.959045
- Title: Artificial Intelligence in Government: Why People Feel They Lose Control
- Title(参考訳): 政府の人工知能:なぜ人々はコントロールを失うのか
- Authors: Alexander Wuttke, Adrian Rauchfleisch, Andreas Jungherr,
- Abstract要約: 行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Artificial Intelligence (AI) in public administration is expanding rapidly, moving from automating routine tasks to deploying generative and agentic systems that autonomously act on goals. While AI promises greater efficiency and responsiveness, its integration into government functions raises concerns about fairness, transparency, and accountability. This article applies principal-agent theory (PAT) to conceptualize AI adoption as a special case of delegation, highlighting three core tensions: assessability (can decisions be understood?), dependency (can the delegation be reversed?), and contestability (can decisions be challenged?). These structural challenges may lead to a "failure-by-success" dynamic, where early functional gains obscure long-term risks to democratic legitimacy. To test this framework, we conducted a pre-registered factorial survey experiment across tax, welfare, and law enforcement domains. Our findings show that although efficiency gains initially bolster trust, they simultaneously reduce citizens' perceived control. When the structural risks come to the foreground, institutional trust and perceived control both drop sharply, suggesting that hidden costs of AI adoption significantly shape public attitudes. The study demonstrates that PAT offers a powerful lens for understanding the institutional and political implications of AI in government, emphasizing the need for policymakers to address delegation risks transparently to maintain public trust.
- Abstract(参考訳): 公務における人工知能(AI)の利用は急速に拡大しており、ルーチンタスクの自動化から、目標に対して自律的に行動する生成およびエージェントシステムのデプロイへと移行している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、AI導入をデリゲートの特別なケースとして概念化するために、プリンシパルエージェント理論(PAT)を適用し、評価可能性(決定は理解可能か?)、依存性(デリゲートは逆転可能か?)、および競合可能性(決定は挑戦可能か?
これらの構造的課題は、初期の機能的利益が民主主義の正当性に対する長期的なリスクを曖昧にする「障害・バイ・サクセス(failure-by-success)」のダイナミクスに繋がる可能性がある。
この枠組みを試すため,税・福祉・法執行領域を対象に,事前登録された要因調査を行った。
調査の結果,効率性は当初は信頼を増すが,同時に市民のコントロールを低下させることが示唆された。
構造的リスクが前景に現れると、制度的信頼と知覚的コントロールの両方が急落し、AI導入の隠れたコストが公衆の態度を著しく形作ることが示唆された。
この研究は、PATが政府におけるAIの制度的および政治的含意を理解するための強力なレンズを提供しており、公共の信頼を維持するために、政策立案者が代表団のリスクに透過的に対処する必要があることを強調している。
関連論文リスト
- Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support [4.982210700018631]
本研究では,機関やAI技術に対する公的な信頼と,認識されるリスク,AI規制の形式的嗜好について検討する。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
論文 参考訳(メタデータ) (2025-04-30T17:56:23Z) - Transfeminist AI Governance [0.0]
記事は、トランスフェミニストレンズを通して人工知能(AI)のガバナンスを再想像する。
トランスフェミニストとフェミニストの倫理理論に基づいて、トランスフェミニストのAIガバナンスへのアプローチを紹介します。
論文 参考訳(メタデータ) (2025-03-19T20:25:59Z) - AGI, Governments, and Free Societies [0.0]
我々は、AGIが社会を「専制的レヴィアサン」または「従属レヴィアサン」に向かわせるという明確なリスクを生んでいると論じる。
これらのダイナミクスが3つの重要なチャネルを通してどのように展開できるかを分析します。
AGIによる国家の能力増強は、前例のない監視と統制を可能にし、権威主義的な慣行を定着させる可能性がある。
逆に、非国家アクターへのAGI機能の急速な拡散は、国家の正当性と統治性を損なう可能性がある。
論文 参考訳(メタデータ) (2025-02-14T03:55:38Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making [0.1527458325979785]
本稿では,公共セクターシステムとプロセスの機械化,デジタル化,自動化の課題を明らかにする。
公立機関において、倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-22T06:51:15Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。