論文の概要: Reasoning Is All You Need for Urban Planning AI
- arxiv url: http://arxiv.org/abs/2511.05375v1
- Date: Fri, 07 Nov 2025 15:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.830175
- Title: Reasoning Is All You Need for Urban Planning AI
- Title(参考訳): 都市計画AIに必要な理由
- Authors: Sijie Yang, Jiatong Li, Filip Biljecki,
- Abstract要約: 本稿では,推論可能な計画エージェントのためのエージェント都市計画AIフレームワークを提案する。
パーセプション(Perception)、ファンデーション(Foundation)、推論(Reasoning)という3つの認知レイヤを、マルチエージェントコラボレーションフレームワークを通じて6つのロジックコンポーネント(分析、生成、検証、評価、コラボレーション、決定)と統合する。
我々は、AIエージェントが、ソリューション空間を体系的に探索し、規制コンプライアンスを検証し、トレードオフを透過的に検討することで、ヒューマンプランナーを強化する方法を示す。
- 参考スコア(独自算出の注目度): 3.3943213418026126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI has proven highly successful at urban planning analysis -- learning patterns from data to predict future conditions. The next frontier is AI-assisted decision-making: agents that recommend sites, allocate resources, and evaluate trade-offs while reasoning transparently about constraints and stakeholder values. Recent breakthroughs in reasoning AI -- CoT prompting, ReAct, and multi-agent collaboration frameworks -- now make this vision achievable. This position paper presents the Agentic Urban Planning AI Framework for reasoning-capable planning agents that integrates three cognitive layers (Perception, Foundation, Reasoning) with six logic components (Analysis, Generation, Verification, Evaluation, Collaboration, Decision) through a multi-agents collaboration framework. We demonstrate why planning decisions require explicit reasoning capabilities that are value-based (applying normative principles), rule-grounded (guaranteeing constraint satisfaction), and explainable (generating transparent justifications) -- requirements that statistical learning alone cannot fulfill. We compare reasoning agents with statistical learning, present a comprehensive architecture with benchmark evaluation metrics, and outline critical research challenges. This framework shows how AI agents can augment human planners by systematically exploring solution spaces, verifying regulatory compliance, and deliberating over trade-offs transparently -- not replacing human judgment but amplifying it with computational reasoning capabilities.
- Abstract(参考訳): AIは、都市計画分析 -- データからパターンを学び、将来の状況を予測する -- において、非常に成功した。
次のフロンティアはAIによる意思決定だ: サイトを推薦し、リソースを割り当て、トレードオフを評価し、制約やステークホルダーの価値を透明に推論するエージェント。
AI -- CoTプロンプト、ReAct、マルチエージェントコラボレーションフレームワーク -- の最近のブレークスルーによって、このビジョンは実現可能になった。
本稿では,3つの認知レイヤ(パーセプション,ファンデーション,推論)と6つの論理コンポーネント(分析,生成,検証,評価,コラボレーション,決定)を多エージェント協調フレームワークを通じて統合する,推論可能な計画エージェントのためのエージェント都市計画AIフレームワークを提案する。
我々は、なぜ計画決定が、価値に基づく(規範的原則を適用する)明確な推論能力、規則に基づく(制約満足の保証)、説明可能な(透明な正当化を生成する) -- 統計的学習だけでは満たせない要件を必要とするのかを実証する。
統計的学習と推論エージェントを比較し,ベンチマーク評価指標を用いた包括的アーキテクチャを提示し,重要な研究課題を概説する。
このフレームワークは、AIエージェントが、ソリューションスペースを体系的に探索し、規制コンプライアンスを検証し、トレードオフを透過的に検討することで、ヒューマン判断を置き換えるのではなく、計算的推論能力でそれを増幅することで、ヒューマンプランナーを増強する方法を示している。
関連論文リスト
- DAO-AI: Evaluating Collective Decision-Making through Agentic AI in Decentralized Governance [7.230919380272301]
本稿では,分散型ガバナンスにおける自律的意思決定者としてのエージェントAIの実証的研究について述べる。
我々は、提案コンテキストを解釈し、過去の審議データを検索し、その投票位置を独立して決定するエージェントAI投票者を構築する。
この研究は、分散金融システムのための説明可能な、経済的に厳格なAIエージェントの設計に寄与する。
論文 参考訳(メタデータ) (2025-10-24T03:13:14Z) - How Good are Foundation Models in Step-by-Step Embodied Reasoning? [79.15268080287505]
身体的エージェントは、安全で空間的に整合性があり、文脈に根ざした決定をしなければならない。
大規模マルチモーダルモデルの最近の進歩は、視覚的理解と言語生成において有望な能力を示している。
私たちのベンチマークには、10のタスクと8のエボディメントにまたがる詳細なステップバイステップ推論を備えた1.1k以上のサンプルが含まれています。
論文 参考訳(メタデータ) (2025-09-18T17:56:30Z) - Foundations for Risk Assessment of AI in Protecting Fundamental Rights [0.5093073566064981]
この章では、AIの質的リスクアセスメントの概念的フレームワークを紹介します。
法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスとデファシブルな推論を反復する。
論文 参考訳(メタデータ) (2025-07-24T10:52:22Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Governing AI Agents [0.2913760942403036]
本項では、主エージェント問題に関する経済理論と、機関関係に関する共通法学説を概観する。
それは、情報非対称性、差別的権威、忠誠といった問題を含む、AIエージェントから生じる問題を特定する。
包括性、可視性、責任のガバナンス原則をサポートするためには、新しい技術的および法的基盤が必要である、と氏は主張する。
論文 参考訳(メタデータ) (2025-01-14T07:55:18Z) - A Decision Theoretic Framework for Measuring AI Reliance [20.669176502049066]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。