論文の概要: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.12345v1
- Date: Tue, 15 Apr 2025 16:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:14.031582
- Title: Reimagining Urban Science: Scaling Causal Inference with Large Language Models
- Title(参考訳): 都市科学を再考する:大規模言語モデルによる因果推論のスケーリング
- Authors: Yutong Xia, Ao Qu, Yunhan Zheng, Yihong Tang, Dingyi Zhuang, Yuxuan Liang, Cathy Wu, Roger Zimmermann, Jinhua Zhao,
- Abstract要約: 本研究は,構造的ギャップを識別するための研究トピック,データソース,方法論的アプローチを分類する分析によって,現在の都市因果研究を考察する。
本稿では,仮説生成,データエンジニアリング,実験設計と実行,政策勧告による結果解釈の4つの異なるモジュールエージェントからなるAutoUrbanCI概念フレームワークを提案する。
本稿では,厳密性と透明性の評価基準を提案し,人間とAIのコラボレーション,エクイティ,説明責任に対する影響を考察する。
- 参考スコア(独自算出の注目度): 29.65991531410286
- License:
- Abstract: Urban causal research is essential for understanding the complex dynamics of cities and informing evidence-based policies. However, it is challenged by the inefficiency and bias of hypothesis generation, barriers to multimodal data complexity, and the methodological fragility of causal experimentation. Recent advances in large language models (LLMs) present an opportunity to rethink how urban causal analysis is conducted. This Perspective examines current urban causal research by analyzing taxonomies that categorize research topics, data sources, and methodological approaches to identify structural gaps. We then introduce an LLM-driven conceptual framework, AutoUrbanCI, composed of four distinct modular agents responsible for hypothesis generation, data engineering, experiment design and execution, and results interpretation with policy recommendations. We propose evaluation criteria for rigor and transparency and reflect on implications for human-AI collaboration, equity, and accountability. We call for a new research agenda that embraces AI-augmented workflows not as replacements for human expertise but as tools to broaden participation, improve reproducibility, and unlock more inclusive forms of urban causal reasoning.
- Abstract(参考訳): 都市因果研究は、都市の複雑なダイナミクスを理解し、証拠に基づく政策を伝えるために不可欠である。
しかし、仮説生成の非効率性とバイアス、マルチモーダルデータ複雑化への障壁、因果実験の方法論的脆弱さに課題がある。
大規模言語モデル(LLM)の最近の進歩は,都市の因果分析の実施方法を再考する機会となる。
本研究は,構造的ギャップを識別するための研究トピック,データソース,方法論的アプローチを分類する分類学を分析し,現在の都市因果研究を考察する。
次に、仮説生成、データエンジニアリング、実験設計と実行、ポリシー推奨による結果解釈の4つの異なるモジュールエージェントからなるLLM駆動の概念フレームワークAutoUrbanCIを紹介する。
本稿では,厳密性と透明性の評価基準を提案し,人間とAIのコラボレーション,エクイティ,説明責任に対する影響を考察する。
我々は、AIによって強化されたワークフローを人間の専門知識の代替としてではなく、参加を広げ、再現性を改善し、より包括的な都市因果推論の形式を解き放つためのツールとして受け入れる新しい研究課題を求めている。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Four Guiding Principles for Modeling Causal Domain Knowledge: A Case Study on Brainstorming Approaches for Urban Blight Analysis [1.689787234867583]
因果的ドメイン知識を効果的にモデル化するための4つのルールを導入することにより、都市性ブライトの分析におけるドメイン知識の統合を改善する。
本研究は, 都市景観分析のために開発された認知地図を調査し, 因果モデルガイドラインから有意な逸脱が認められた。
論文 参考訳(メタデータ) (2024-12-03T11:49:34Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Modeling Transformative AI Risks (MTAIR) Project -- Summary Report [0.0]
このレポートは、Cottier氏とShah氏による以前の図に基づいており、いくつかの説明とともに、視覚的に重要な不一致(クラックス)をいくつか説明した。
このモデルは、アナロジーと人工知能に関する一般的な以前の信念による推論に関する議論から始まる。
さまざまなパスのモデルをレイアウトし、ハイレベルなマシンインテリジェンスのためのテクノロジーと、これらのシステムの能力の進歩のモデルを構築している。
このモデルは、学習した最適化の問題や、機械学習システムがメザ最適化を作成するかどうかについても特に注目している。
論文 参考訳(メタデータ) (2022-06-19T09:11:23Z) - A Causal Research Pipeline and Tutorial for Psychologists and Social
Scientists [7.106986689736828]
因果関係は世界を理解する科学的努力の基本的な部分である。
残念なことに、因果関係は心理学や社会科学の多くの分野においていまだに曖昧である。
研究に因果的アプローチを採用することの重要性に対する多くの勧告によって、我々は、必然的に因果的理論を研究パイプラインの他の部分と調和させるために、心理学における研究の典型的なアプローチを再構築する。
論文 参考訳(メタデータ) (2022-06-10T15:11:57Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。