論文の概要: AI and the Transformation of Accountability and Discretion in Urban Governance
- arxiv url: http://arxiv.org/abs/2502.13101v1
- Date: Tue, 18 Feb 2025 18:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:07:41.661752
- Title: AI and the Transformation of Accountability and Discretion in Urban Governance
- Title(参考訳): 都市ガバナンスにおけるAIと説明責任・判断の変容
- Authors: Stephen Goldsmith, Juncheng Yang,
- Abstract要約: この論文は、人間の裁量を再配置し、特定のタイプの説明責任を再形成するAIの可能性を強調している。
責任あるAI採用のためのフレームワークを推進し、都市のガバナンスが適応的で透明性があり、パブリックな価値と一致し続けることを保証します。
- 参考スコア(独自算出の注目度): 1.9152655229960793
- License:
- Abstract: The integration of Artificial Intelligence (AI) in urban governance presents significant opportunities to transform decision-making and enhance accountability. The paper highlights AI's potential to reposition human discretion and reshape specific types of accountability, elevating the decision-making capabilities of both frontline bureaucrats and managers while ensuring ethical standards and public trust are maintained. While AI can enhance bureaucratic flexibility and efficiency, its integration will also necessitate new governance frameworks to mitigate risks associated with uneven capacity distribution, ethical concerns, and public trust. Following the literature review and theoretical discussion, this study introduces a set of guiding principles for AI-assisted urban governance, emphasizing equitable AI deployment, adaptive administrative structures, robust data governance, transparent human-AI collaboration, and citizen engagement in oversight mechanisms. By critically evaluating AI's dual role in expanding discretion and reinforcing accountability, this paper advances a framework for responsible AI adoption, ensuring that urban governance remains adaptive, transparent, and aligned with public values.
- Abstract(参考訳): 都市ガバナンスにおける人工知能(AI)の統合は、意思決定を変革し、説明責任を高める重要な機会を提供する。
この論文は、AIが人間の裁量を再配置し、特定のタイプの説明責任を再形成する可能性を強調し、倫理基準と公的信頼の維持を確保しながら、最前線の官僚と管理者の意思決定能力を高める。
AIは官僚的な柔軟性と効率を高めることができるが、その統合は、不均一なキャパシティの分散、倫理的懸念、公的な信頼に関連するリスクを軽減するために、新しいガバナンスフレームワークも必要である。
文献レビューと理論的議論に続いて、本稿では、AI支援都市ガバナンスの指針として、公平なAIデプロイメント、適応的な管理構造、堅牢なデータガバナンス、透明な人間-AIコラボレーション、監視メカニズムにおける市民の関与を強調する。
意思決定の拡大と説明責任の強化におけるAIの二重の役割を批判的に評価することにより、この論文は、責任あるAI導入のためのフレームワークを進化させ、都市ガバナンスが適応的で透明性があり、公共の価値観と一致し続けることを保証する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - AI Governance and Accountability: An Analysis of Anthropic's Claude [0.0]
本稿では,基本的AIモデルであるArthropicのClaudeに着目し,AIガバナンスの展望について考察する。
我々は、NIST AI Risk Management FrameworkとEU AI Actのレンズを通してCludeを分析し、潜在的な脅威を特定し、緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:37:06Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A multilevel framework for AI governance [6.230751621285321]
政府、企業、市民が関与する多段階的なガバナンスアプローチを提案する。
ガバナンスのレベルとAIの信頼の次元が組み合わさって、ユーザエクスペリエンスをさらに強化し、AIに関連する公開ポリシーを通知するために使用できる実践的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-04T03:59:16Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。