論文の概要: Multimodal Contrastive Learning of Urban Space Representations from POI Data
- arxiv url: http://arxiv.org/abs/2411.06229v1
- Date: Sat, 09 Nov 2024 16:24:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:56.005805
- Title: Multimodal Contrastive Learning of Urban Space Representations from POI Data
- Title(参考訳): POIデータを用いた都市空間表現のマルチモーダルコントラスト学習
- Authors: Xinglei Wang, Tao Cheng, Stephen Law, Zichao Zeng, Lu Yin, Junyuan Liu,
- Abstract要約: CaLLiPer (Contrastive Language-Location Pre-training) は連続的な都市空間をベクトル表現に埋め込む表現学習モデルである。
ロンドンにおける都市空間表現の学習に適用し,CaLLiPerの有効性を検証する。
- 参考スコア(独自算出の注目度): 2.695321027513952
- License:
- Abstract: Existing methods for learning urban space representations from Point-of-Interest (POI) data face several limitations, including issues with geographical delineation, inadequate spatial information modelling, underutilisation of POI semantic attributes, and computational inefficiencies. To address these issues, we propose CaLLiPer (Contrastive Language-Location Pre-training), a novel representation learning model that directly embeds continuous urban spaces into vector representations that can capture the spatial and semantic distribution of urban environment. This model leverages a multimodal contrastive learning objective, aligning location embeddings with textual POI descriptions, thereby bypassing the need for complex training corpus construction and negative sampling. We validate CaLLiPer's effectiveness by applying it to learning urban space representations in London, UK, where it demonstrates 5-15% improvement in predictive performance for land use classification and socioeconomic mapping tasks compared to state-of-the-art methods. Visualisations of the learned representations further illustrate our model's advantages in capturing spatial variations in urban semantics with high accuracy and fine resolution. Additionally, CaLLiPer achieves reduced training time, showcasing its efficiency and scalability. This work provides a promising pathway for scalable, semantically rich urban space representation learning that can support the development of geospatial foundation models. The implementation code is available at https://github.com/xlwang233/CaLLiPer.
- Abstract(参考訳): POI(Point-of-Interest)データから都市空間表現を学習するための既存の手法は、地理的記述、不適切な空間情報モデリング、POIのセマンティック属性の活用、計算不効率など、いくつかの制限に直面している。
これらの課題に対処するために,連続する都市空間を直接ベクトル表現に埋め込む新しい表現学習モデルであるCaLLiPer(Contrastive Language-Location Pre-Trening)を提案する。
このモデルはマルチモーダル・コントラッシブ・ラーニングの目的を活用し、位置埋め込みをテキストのPOI記述と整合させることにより、複雑な学習コーパスの構築と負のサンプリングの必要性を回避できる。
本研究は,英国ロンドンにおける都市空間表現の学習にCaLLiPerを応用し,土地利用分類と社会経済マッピングタスクにおける5~15%の予測性能の向上を実証するものである。
学習した表現の可視化は、都市の意味論における空間的変動を高精度かつ微細な解像度で捉える際のモデルの利点をさらに示している。
さらに、CaLLiPerはトレーニング時間を短縮し、その効率性とスケーラビリティを示している。
この研究は、地理空間基盤モデルの開発を支援するため、スケーラブルでセマンティックにリッチな都市空間表現学習のための有望な経路を提供する。
実装コードはhttps://github.com/xlwang233/CaLLiPerで公開されている。
関連論文リスト
- Explainable Hierarchical Urban Representation Learning for Commuting Flow Prediction [1.5156879440024378]
通勤フロー予測は、現実の自治体の業務に欠かせない課題である。
我々は,異なるタイプのODフローを予測するために,意味のある領域埋め込みを生成するヘテロジニアスグラフベースモデルを開発した。
提案モデルでは,一様都市構造の観点から既存モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-27T03:30:01Z) - Fine-Grained Urban Flow Inference with Multi-scale Representation Learning [14.673004628911443]
そこで本稿では,UrbanMSRと呼ばれる都市流モデルを提案する。
自己教師付きコントラスト学習を用いて、近隣レベルと都市レベルの地理的情報の動的マルチスケール表現を得る。
実世界の3つのデータセットに対する広範な実験により,その性能を検証した。
論文 参考訳(メタデータ) (2024-06-14T04:42:29Z) - Unified Data Management and Comprehensive Performance Evaluation for
Urban Spatial-Temporal Prediction [Experiment, Analysis & Benchmark] [78.05103666987655]
この研究は、多様な都市空間時間データセットにアクセスし活用する際の課題に対処する。
都市空間・時空間のビッグデータ用に設計された統合ストレージフォーマットであるアトミックファイルを導入し,40種類の多様なデータセットでその有効性を検証する。
多様なモデルとデータセットを使用して広範な実験を行い、パフォーマンスリーダーボードを確立し、有望な研究方向性を特定する。
論文 参考訳(メタデータ) (2023-08-24T16:20:00Z) - Adaptive Hierarchical SpatioTemporal Network for Traffic Forecasting [70.66710698485745]
本稿では,AHSTN(Adaptive Hierarchical SpatioTemporal Network)を提案する。
AHSTNは空間階層を利用し、マルチスケール空間相関をモデル化する。
2つの実世界のデータセットの実験により、AHSTNはいくつかの強いベースラインよりも優れたパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T14:50:27Z) - Spatio-Temporal Graph Few-Shot Learning with Cross-City Knowledge
Transfer [58.6106391721944]
クロスシティの知識は、データ不足の都市から学んだモデルを活用して、データ不足の都市の学習プロセスに役立てるという、その将来性を示している。
本稿では,ST-GFSLと呼ばれるS時間グラフのためのモデルに依存しない数ショット学習フレームワークを提案する。
本研究では,4つの交通速度予測ベンチマークの総合的な実験を行い,ST-GFSLの有効性を最先端手法と比較した。
論文 参考訳(メタデータ) (2022-05-27T12:46:52Z) - Learning Neighborhood Representation from Multi-Modal Multi-Graph:
Image, Text, Mobility Graph and Beyond [20.014906526266795]
本稿では,マルチモーダルジオタグ入力をノードまたはエッジの特徴として統合する新しい手法を提案する。
具体的には、ストリートビュー画像とpoi特徴を用いて、近傍(ノード)を特徴付け、人間移動を用いて近隣(方向エッジ)間の関係を特徴付ける。
トレーニングした埋め込みは、ユニモーダルデータのみを地域入力として使用するものよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T07:44:05Z) - Methodological Foundation of a Numerical Taxonomy of Urban Form [62.997667081978825]
本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
論文 参考訳(メタデータ) (2021-04-30T12:47:52Z) - Learning Large-scale Location Embedding From Human Mobility Trajectories
with Graphs [0.0]
本研究では,大規模LBSデータを用いて位置のベクトル表現を学習する。
このモデルは、人間のモビリティと空間情報にコンテキスト情報を組み込む。
GCN-L2Vは、他の場所埋め込み法や下流のGeo-Awareアプリケーションと相補的に適用することができる。
論文 参考訳(メタデータ) (2021-02-23T09:11:33Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Learning Geo-Contextual Embeddings for Commuting Flow Prediction [20.600183945696863]
インフラ・土地利用情報に基づく通勤フローの予測は都市計画・公共政策開発に不可欠である。
重力モデルのような従来のモデルは、主に物理原理から派生し、現実のシナリオにおける予測力によって制限される。
本研究では,空間的相関を空間的コンテキスト情報から捉えて,通勤フロー予測を行うモデルであるGeo-contextual Multitask Embedding Learner (GMEL)を提案する。
論文 参考訳(メタデータ) (2020-05-04T17:45:18Z) - Spatial Pyramid Based Graph Reasoning for Semantic Segmentation [67.47159595239798]
セマンティックセグメンテーションタスクにグラフ畳み込みを適用し、改良されたラプラシアンを提案する。
グラフ推論は、空間ピラミッドとして構成された元の特徴空間で直接実行される。
計算とメモリのオーバーヘッドの利点で同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-03-23T12:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。