論文の概要: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.12345v1
- Date: Tue, 15 Apr 2025 16:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-26 03:33:06.275994
- Title: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- Title(参考訳): 都市科学を再考する:大規模言語モデルによる因果推論のスケーリング
- Authors: Yutong Xia, Ao Qu, Yunhan Zheng, Yihong Tang, Dingyi Zhuang, Yuxuan Liang, Cathy Wu, Roger Zimmermann, Jinhua Zhao,
- Abstract要約: 本研究は,構造的ギャップを識別するための研究トピック,データソース,方法論的アプローチを分類する分析によって,現在の都市因果研究を考察する。
本稿では,仮説生成,データエンジニアリング,実験設計と実行,政策勧告による結果解釈の4つの異なるモジュールエージェントからなるAutoUrbanCI概念フレームワークを提案する。
本稿では,厳密性と透明性の評価基準を提案し,人間とAIのコラボレーション,エクイティ,説明責任に対する影響を考察する。
- 参考スコア(独自算出の注目度): 29.65991531410286
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Urban causal research is essential for understanding the complex dynamics of cities and informing evidence-based policies. However, it is challenged by the inefficiency and bias of hypothesis generation, barriers to multimodal data complexity, and the methodological fragility of causal experimentation. Recent advances in large language models (LLMs) present an opportunity to rethink how urban causal analysis is conducted. This Perspective examines current urban causal research by analyzing taxonomies that categorize research topics, data sources, and methodological approaches to identify structural gaps. We then introduce an LLM-driven conceptual framework, AutoUrbanCI, composed of four distinct modular agents responsible for hypothesis generation, data engineering, experiment design and execution, and results interpretation with policy recommendations. We propose evaluation criteria for rigor and transparency and reflect on implications for human-AI collaboration, equity, and accountability. We call for a new research agenda that embraces AI-augmented workflows not as replacements for human expertise but as tools to broaden participation, improve reproducibility, and unlock more inclusive forms of urban causal reasoning.
- Abstract(参考訳): 都市因果研究は、都市の複雑なダイナミクスを理解し、証拠に基づく政策を伝えるために不可欠である。
しかし、仮説生成の非効率性とバイアス、マルチモーダルデータ複雑化への障壁、因果実験の方法論的脆弱さに課題がある。
大規模言語モデル(LLM)の最近の進歩は,都市の因果分析の実施方法を再考する機会となる。
本研究は,構造的ギャップを識別するための研究トピック,データソース,方法論的アプローチを分類する分類学を分析し,現在の都市因果研究を考察する。
次に、仮説生成、データエンジニアリング、実験設計と実行、ポリシー推奨による結果解釈の4つの異なるモジュールエージェントからなるLLM駆動の概念フレームワークAutoUrbanCIを紹介する。
本稿では,厳密性と透明性の評価基準を提案し,人間とAIのコラボレーション,エクイティ,説明責任に対する影響を考察する。
我々は、AIによって強化されたワークフローを人間の専門知識の代替としてではなく、参加を広げ、再現性を改善し、より包括的な都市因果推論の形式を解き放つためのツールとして受け入れる新しい研究課題を求めている。
関連論文リスト
- Causality for Natural Language Processing [17.681875945732042]
因果推論は人間の知性の基礎であり、人工システムにとって重要な能力である。
この論文は、大きな言語モデルにおける因果推論と理解の様々な次元に展開する。
論文 参考訳(メタデータ) (2025-04-20T08:11:11Z) - A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models [0.9383505015433911]
大規模言語モデル(LLM)は仮説生成の強化と自動化への関心が高まっている。
本稿では,LLMを用いた仮説生成に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-04-07T20:44:33Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - An LLM-based Delphi Study to Predict GenAI Evolution [0.6138671548064356]
本研究では,大規模言語モデルを用いた定性的予測手法を提案する。
この手法は、ジェネレーティブ・人工知能の将来的な進化を探求するために応用された。
論文 参考訳(メタデータ) (2025-02-28T14:31:25Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。