論文の概要: CityGPT: Empowering Urban Spatial Cognition of Large Language Models
- arxiv url: http://arxiv.org/abs/2406.13948v2
- Date: Sat, 31 May 2025 15:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 20:53:52.860564
- Title: CityGPT: Empowering Urban Spatial Cognition of Large Language Models
- Title(参考訳): CityGPT:大規模言語モデルの都市空間認知の強化
- Authors: Jie Feng, Tianhui Liu, Yuwei Du, Siqi Guo, Yuming Lin, Yong Li,
- Abstract要約: 大規模言語モデルは、都市環境内の実際の地理空間的タスクに取り組むと、しばしば不足する。
都市空間に対するLLMの理解を高め、関連する都市課題を解決する能力を向上させるためのフレームワークである textitCityGPT を提案する。
提案手法の有効性を検証するため,LLMの性能評価のためのテキストベースの空間ベンチマークtextitCityEvalを開発した。
- 参考スコア(独自算出の注目度): 7.40606412920065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models(LLMs), with their powerful language generation and reasoning capabilities, have already achieved notable success in many domains, e.g., math and code generation. However, they often fall short when tackling real-life geospatial tasks within urban environments. This limitation stems from a lack of physical world knowledge and relevant data during training. To address this gap, we propose \textit{CityGPT}, a systematic framework designed to enhance LLMs' understanding of urban space and improve their ability to solve the related urban tasks by integrating a city-scale `world model' into the model. Firstly, we construct a diverse instruction tuning dataset, \textit{CityInstruction}, for injecting urban knowledge into LLMs and effectively boosting their spatial reasoning capabilities. Using a combination of \textit{CityInstruction} and open source general instruction data, we introduce a novel and easy-to-use self-weighted fine-tuning method (\textit{SWFT}) to train various LLMs (including ChatGLM3-6B, Llama3-8B, and Qwen2.5-7B) to enhance their urban spatial capabilities without compromising, or even improving, their general abilities. Finally, to validate the effectiveness of our proposed framework, we develop a comprehensive text-based spatial benchmark \textit{CityEval} for evaluating the performance of LLMs across a wide range of urban scenarios and geospatial tasks. Extensive evaluation results demonstrate that smaller LLMs trained with \textit{CityInstruction} by \textit{SWFT} method can achieve performance that is competitive with, and in some cases superior to, proprietary LLMs when assessed using \textit{CityEval}.
- Abstract(参考訳): 大きな言語モデル(LLM)とその強力な言語生成と推論能力は、すでに多くの領域、例えば数学やコード生成において顕著な成功を収めている。
しかし、都市環境における実際の空間的課題に取り組む際には、しばしば不足する。
この制限は、トレーニング中に物理世界の知識と関連するデータが不足していることに起因する。
このギャップに対処するために,都市規模の「世界モデル」をモデルに組み込むことで,LLMの都市空間理解を高め,関連する都市課題を解決する能力を向上させるための体系的枠組みである「textit{CityGPT}」を提案する。
まず, LLMに都市知識を注入し, 空間的推論能力を効果的に向上する多種多様な指導調律データセット, \textit{CityInstruction}を構築した。
オープンソースの汎用インストラクションデータと組み合わせて,ChatGLM3-6B, Llama3-8B, Qwen2.5-7B を含む様々な LLM を訓練し,都市空間能力を向上させる,新規で使いやすい自己重み付き微調整法 (\textit{SWFT}) を導入する。
最後に,提案手法の有効性を検証するため,広域都市シナリオおよび地理空間課題におけるLCMの性能を評価するための総合的なテキストベース空間ベンチマークであるtextit{CityEval} を開発した。
広範囲な評価結果から, \textit{CityInstruction} で訓練された小さな LLM が, \textit{SWFT} と競合する性能を達成できること,また, 場合によっては, \textit{CityEval} を用いて評価した場合に, プロプライエタリな LLM よりも優れていることが示唆された。
関連論文リスト
- Urban Computing in the Era of Large Language Models [41.50492781046065]
本稿では,大規模言語モデル(LLM)と都市コンピューティングの交わりについて検討する。
我々は,LLMの進化とコア技術について,簡潔に概説する。
我々は、交通、公共安全、環境モニタリングなど、主要都市領域にまたがる応用を調査する。
論文 参考訳(メタデータ) (2025-04-02T05:12:13Z) - What can LLM tell us about cities? [6.405546719612814]
本研究では,世界規模で都市や地域に関する知識を提供する上で,大規模言語モデル(LLM)の能力について検討する。
実験の結果、LLMはグローバルな都市に広範に多様な知識を組み込んでおり、MLモデルはLLMに由来する特徴に基づいて一貫して訓練され、予測精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-11-25T09:07:56Z) - OpenCity: A Scalable Platform to Simulate Urban Activities with Massive LLM Agents [10.919679349212426]
大規模言語モデル(LLM)は、前例のないリアリズムで都市活動をシミュレートできるLLMエージェントの開発につながっている。
システムと迅速な効率の両方に最適化されたスケーラブルなシミュレーションプラットフォームであるOpenCityを提案する。
OpenCityは、エージェント毎の600倍のシミュレーション時間、LLM要求の70%の削減、トークン使用の50%の削減を実現している。
論文 参考訳(メタデータ) (2024-10-11T13:52:35Z) - UrBench: A Comprehensive Benchmark for Evaluating Large Multimodal Models in Multi-View Urban Scenarios [60.492736455572015]
複雑な多視点都市シナリオにおけるLMM評価のためのベンチマークであるUrBenchを提案する。
UrBenchには、リージョンレベルとロールレベルの両方で、厳密にキュレートされた11.6Kの質問が含まれている。
21のLMMに対する評価は、現在のLMMが都市環境においていくつかの面で苦戦していることを示している。
論文 参考訳(メタデータ) (2024-08-30T13:13:35Z) - CityBench: Evaluating the Capabilities of Large Language Model as World Model [10.22654338686634]
強力な一般化能力を持つ大規模言語モデル(LLM)は、多くの領域で広く使われている。
本稿では,対話型シミュレータによる評価プラットフォームであるCityBenchを提案する。
本研究では,都市域におけるLLMの都市規模世界モデルとしての能力を評価するために,認識理解と意思決定の2つのカテゴリに7つのタスクを設計する。
論文 参考訳(メタデータ) (2024-06-20T02:25:07Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - UrbanLLM: Autonomous Urban Activity Planning and Management with Large Language Models [20.069378890478763]
UrbanLLMは、都市関連クエリを管理可能なサブタスクに分解することで問題を解決する。
サブタスクごとに適切なAIモデルを特定し、与えられたクエリに対する包括的な応答を生成する。
論文 参考訳(メタデータ) (2024-06-18T07:41:42Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - When LLMs Meet Cunning Texts: A Fallacy Understanding Benchmark for Large Language Models [59.84769254832941]
本稿では,人間が理解し易いが,理解し難い文を含むFaLlacy Understanding Benchmark (FLUB)を提案する。
具体的には、FLUBが焦点を絞ったcunningテキストは、主に、実際のインターネット環境から収集されたトリッキーでユーモラスで誤解を招くテキストで構成されている。
FLUBに基づいて,複数の代表および先進LLMの性能について検討する。
論文 参考訳(メタデータ) (2024-02-16T22:12:53Z) - Large language model empowered participatory urban planning [5.402147437950729]
本研究では,大規模言語モデル(LLM)を参加型プロセスに統合した革新的な都市計画手法を提案する。
このフレームワークは、LLMエージェントをベースとして、役割プレイ、共同生成、フィードバックで構成され、コミュニティレベルの土地利用タスクを1000の異なる関心事に対応させて解決する。
論文 参考訳(メタデータ) (2024-01-24T10:50:01Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [87.96683299084788]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
人間の認知を模倣して、知識関連能力の4段階の分類を形成し、19ドルのタスクをカバーします。
私たちは、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集された新興コーパスを使用して、目に見えないデータや進化する知識を扱う能力を評価します。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。