論文の概要: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.12345v3
- Date: Fri, 20 Jun 2025 07:09:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 14:57:51.714148
- Title: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- Title(参考訳): 都市科学を再考する:大規模言語モデルによる因果推論のスケーリング
- Authors: Yutong Xia, Ao Qu, Yunhan Zheng, Yihong Tang, Dingyi Zhuang, Yuxuan Liang, Shenhao Wang, Cathy Wu, Lijun Sun, Roger Zimmermann, Jinhua Zhao,
- Abstract要約: 都市因果研究は、都市を形成する複雑なダイナミックなプロセスを理解するために不可欠である。
現在の慣行は、しばしば非効率で偏りのある仮説の定式化によって制約される。
本研究では,仮説生成,データエンジニアリング,実験設計と実行,政策洞察による結果解釈の4つの異なるモジュールエージェントからなる概念的枠組みであるUrbanCIAを提案する。
- 参考スコア(独自算出の注目度): 39.231736674554995
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Urban causal research is essential for understanding the complex, dynamic processes that shape cities and for informing evidence-based policies. However, current practices are often constrained by inefficient and biased hypothesis formulation, challenges in integrating multimodal data, and fragile experimental methodologies. Imagine a system that automatically estimates the causal impact of congestion pricing on commute times by income group or measures how new green spaces affect asthma rates across neighborhoods using satellite imagery and health reports, and then generates comprehensive, policy-ready outputs, including causal estimates, subgroup analyses, and actionable recommendations. In this Perspective, we propose UrbanCIA, an LLM-driven conceptual framework composed of four distinct modular agents responsible for hypothesis generation, data engineering, experiment design and execution, and results interpretation with policy insights. We begin by examining the current landscape of urban causal research through a structured taxonomy of research topics, data sources, and methodological approaches, revealing systemic limitations across the workflow. Next, we introduce the design principles and technological roadmap for the four modules in the proposed framework. We also propose evaluation criteria to assess the rigor and transparency of these AI-augmented processes. Finally, we reflect on the broader implications for human-AI collaboration, equity, and accountability. We call for a new research agenda that embraces LLM-driven tools as catalysts for more scalable, reproducible, and inclusive urban research.
- Abstract(参考訳): 都市因果研究は、都市を形成する複雑なダイナミックなプロセスを理解し、エビデンスベースの政策を伝えるために不可欠である。
しかしながら、現在のプラクティスは、非効率で偏りのある仮説の定式化、マルチモーダルデータの統合における課題、脆弱な実験手法によって制約されることが多い。
所得グループによる通勤時間における渋滞価格の因果的影響を自動的に推定するシステムや、衛星画像と健康レポートを用いて、新しい緑地が近隣の喘息率にどのように影響するかを測定するシステムを想像し、因果推定、サブグループ分析、行動可能な推奨を含む包括的な政策対応アウトプットを生成する。
本稿では、仮説生成、データエンジニアリング、実験設計と実行、政策洞察による結果解釈の4つの異なるモジュールエージェントからなるLLM駆動の概念フレームワークであるUrbanCIAを提案する。
まず、研究トピック、データソース、方法論的アプローチの構造化された分類学を通して、現在の都市因果研究の状況を調べ、ワークフロー全体にわたる体系的な制限を明らかにすることから始める。
次に,提案フレームワークにおける4つのモジュールの設計原則と技術ロードマップを紹介する。
また,これらのAIプロセスの厳密さと透明性を評価するための評価基準を提案する。
最後に、人間とAIのコラボレーション、エクイティ、説明責任の幅広い意味について考察する。
我々は、LLM駆動のツールをよりスケーラブルで再現性があり、包括的な都市研究のための触媒として採用する新しい研究課題を求めている。
関連論文リスト
- Causality for Natural Language Processing [17.681875945732042]
因果推論は人間の知性の基礎であり、人工システムにとって重要な能力である。
この論文は、大きな言語モデルにおける因果推論と理解の様々な次元に展開する。
論文 参考訳(メタデータ) (2025-04-20T08:11:11Z) - A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models [0.9383505015433911]
大規模言語モデル(LLM)は仮説生成の強化と自動化への関心が高まっている。
本稿では,LLMを用いた仮説生成に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-04-07T20:44:33Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - An LLM-based Delphi Study to Predict GenAI Evolution [0.6138671548064356]
本研究では,大規模言語モデルを用いた定性的予測手法を提案する。
この手法は、ジェネレーティブ・人工知能の将来的な進化を探求するために応用された。
論文 参考訳(メタデータ) (2025-02-28T14:31:25Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。