論文の概要: Urban AI Governance Must Embed Legal Reasonableness for Democratic and Sustainable Cities
- arxiv url: http://arxiv.org/abs/2508.12174v1
- Date: Sat, 16 Aug 2025 22:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.602864
- Title: Urban AI Governance Must Embed Legal Reasonableness for Democratic and Sustainable Cities
- Title(参考訳): 都市AIガバナンスは、民主都市と持続可能都市に法的責任を埋め込む必要がある
- Authors: Rashid Mushkani,
- Abstract要約: 本稿では,自治体のAIシステムにおける監督の監督に法的「合理的な人」標準を適用する概念的枠組みであるUrban Reasonableness Layer(URL)を紹介する。
我々は、自治体のAIシステムに法的「合理的な人」標準を組み込むことは、民主的で持続可能な都市ガバナンスにとって不可欠であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that embedding the legal "reasonable person" standard in municipal AI systems is essential for democratic and sustainable urban governance. As cities increasingly deploy artificial intelligence (AI) systems, concerns around equity, accountability, and normative legitimacy are growing. This paper introduces the Urban Reasonableness Layer (URL), a conceptual framework that adapts the legal "reasonable person" standard for supervisory oversight in municipal AI systems, including potential future implementations of Artificial General Intelligence (AGI). Drawing on historical analogies, scenario mapping, and participatory norm-setting, we explore how legal and community-derived standards can inform AI decision-making in urban contexts. Rather than prescribing a fixed solution, the URL is proposed as an exploratory architecture for negotiating contested values, aligning automation with democratic processes, and interrogating the limits of technical alignment. Our key contributions include: (1) articulating the conceptual and operational architecture of the URL; (2) specifying participatory mechanisms for dynamic normative threshold-setting; (3) presenting a comparative scenario analysis of governance trajectories; and (4) outlining evaluation metrics and limitations. This work contributes to ongoing debates on urban AI governance by foregrounding pluralism, contestability, and the inherently political nature of socio-technical systems.
- Abstract(参考訳): このポジションペーパーは、自治体のAIシステムに法的「合理的な人」標準を組み込むことは、民主的で持続可能な都市ガバナンスにとって不可欠であると主張している。
都市が人工知能(AI)システムをますます導入するにつれて、株式、説明責任、規範的正当性に関する懸念が高まっている。
本稿では,AGI(Artificial General Intelligence)の今後の実装を含む,自治体のAIシステムにおける監督監督のための法的「合理的な人」標準に適合する概念的枠組みであるUrban Reasonability Layer(URL)を紹介する。
歴史的類推、シナリオマッピング、参加型規範設定に基づいて、都市環境におけるAI意思決定に法的およびコミュニティ由来の標準がどのように役立つかを考察する。
固定されたソリューションを規定するのではなく、URLは競合する価値を交渉し、自動化を民主的なプロセスと整合させ、技術的アライメントの限界を問うための探索的アーキテクチャとして提案されている。
本研究の主な貢献は,(1)URLの概念的および運用的アーキテクチャの具体化,(2)動的規範的しきい値設定のための参加機構の指定,(3)ガバナンス軌跡の比較シナリオ分析,(4)評価指標と制約の概説である。
この研究は、多元主義、競争可能性、社会技術システムの本質的に政治的性質を予見することで、都市AIガバナンスに関する継続的な議論に寄与する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Bottom-Up Perspectives on AI Governance: Insights from User Reviews of AI Products [0.0]
本研究は,ガバナンス関連テーマをユーザ談話でどのように表現するかをボトムアップで検討する。
G2.comの10万以上のAI製品のユーザレビューに基づいて、BERTopicを適用して、潜伏したテーマを抽出し、AIガバナンスに関連する最も意味のあるものを特定する。
論文 参考訳(メタデータ) (2025-05-30T01:33:21Z) - Let's have a chat with the EU AI Act [0.0]
本稿では,欧州連合のAI法とその関連規格のナビゲートを支援するAI駆動型自己評価ボットを紹介する。
Retrieval-Augmented Generationフレームワークを活用することで、ボットは関連する規制テキストを取得し、カスタマイズされたガイダンスを提供する。
論文では、ボットのアーキテクチャについて、ナイーブモデルとグラフベースのRAGモデルを比較し、AIガバナンスに対するその潜在的影響について論じる。
論文 参考訳(メタデータ) (2025-05-17T10:24:08Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。