論文の概要: AI and the Transformation of Accountability and Discretion in Urban Governance
- arxiv url: http://arxiv.org/abs/2502.13101v2
- Date: Wed, 16 Apr 2025 21:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:34:07.386483
- Title: AI and the Transformation of Accountability and Discretion in Urban Governance
- Title(参考訳): 都市ガバナンスにおけるAIと説明責任・判断の変容
- Authors: Stephen Goldsmith, Juncheng Yang,
- Abstract要約: この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
- 参考スコア(独自算出の注目度): 1.9152655229960793
- License:
- Abstract: This paper offers a conceptual analysis of the transformative role of Artificial Intelligence (AI) in urban governance, focusing on how AI reshapes governance approaches, oversight mechanisms, and the relationship between bureaucratic discretion and accountability. Drawing on public administration theory, tech-driven governance practices, and data ethics, the study synthesizes insights to propose guiding principles for responsible AI integration in decision-making processes. While primarily conceptual, the paper draws on illustrative empirical cases to demonstrate how AI is reshaping discretion and accountability in real-world settings. The analysis argues that AI does not simply restrict or enhance discretion but redistributes it across institutional levels. It may simultaneously strengthen managerial oversight, enhance decision-making consistency, and improve operational efficiency. These changes affect different forms of accountability: political, professional, and participatory, while introducing new risks, such as data bias, algorithmic opacity, and fragmented responsibility across actors. In response, the paper proposes guiding principles: equitable AI access, adaptive administrative structures, robust data governance, and proactive human-led decision-making, citizen-engaged oversight. This study contributes to the AI governance literature by moving beyond narrow concerns with perceived discretion at the street level, highlighting instead how AI transforms rule-based discretion across governance systems. By bridging perspectives on efficiency and ethical risk, the paper presents a comprehensive framework for understanding the evolving relationship between discretion and accountability in AI-assisted governance.
- Abstract(参考訳): 本稿では, 都市ガバナンスにおける人工知能(AI)の変革的役割に関する概念分析を行い, ガバナンスのアプローチ, 監視機構, 官僚的判断と説明責任の関係に着目した。
この研究は、公共行政理論、技術主導のガバナンスプラクティス、データ倫理に基づいて、意思決定プロセスにおけるAI統合の責任を負うための指針となる原則を提案する洞察を合成する。
主に概念的ではあるが、この論文は、実世界の環境でAIが意思決定と説明責任をどう変えようとしているかを実証する実証的な事例を描いている。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
これらの変更は、データバイアス、アルゴリズムの不透明さ、アクター間の断片化された責任といった新しいリスクを導入しながら、政治的、専門的、参加的といった、さまざまなタイプの説明責任に影響を与える。
そこで本研究では,適切なAIアクセス,適応的な管理構造,堅牢なデータガバナンス,積極的な人間主導による意思決定,市民主導の監視といった原則を提案する。
この研究は、ストリートレベルでの裁量に対する懸念の狭さを超えて、AIがガバナンスシステム間のルールベースの裁量を変える方法を強調することによって、AIガバナンスの文献に寄与する。
本稿では,AI支援ガバナンスにおける意思決定と説明責任の進化的関係を理解するための包括的枠組みを提案する。
関連論文リスト
- Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A multilevel framework for AI governance [6.230751621285321]
政府、企業、市民が関与する多段階的なガバナンスアプローチを提案する。
ガバナンスのレベルとAIの信頼の次元が組み合わさって、ユーザエクスペリエンスをさらに強化し、AIに関連する公開ポリシーを通知するために使用できる実践的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-04T03:59:16Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。