論文の概要: Urban Region Embedding via Multi-View Contrastive Prediction
- arxiv url: http://arxiv.org/abs/2312.09681v1
- Date: Fri, 15 Dec 2023 10:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:14:58.858464
- Title: Urban Region Embedding via Multi-View Contrastive Prediction
- Title(参考訳): 多視点コントラスト予測による都市域埋め込み
- Authors: Zechen Li, Weiming Huang, Kai Zhao, Min Yang, Yongshun Gong, Meng Chen
- Abstract要約: さまざまなビューにまたがる一貫性のある表現を学ぶために、新しいパイプラインを構築します。
本モデルは,都市部における表現学習において,最先端のベースライン手法よりも優れていた。
- 参考スコア(独自算出の注目度): 22.164358462563996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, learning urban region representations utilizing multi-modal data
(information views) has become increasingly popular, for deep understanding of
the distributions of various socioeconomic features in cities. However,
previous methods usually blend multi-view information in a posteriors stage,
falling short in learning coherent and consistent representations across
different views. In this paper, we form a new pipeline to learn consistent
representations across varying views, and propose the multi-view Contrastive
Prediction model for urban Region embedding (ReCP), which leverages the
multiple information views from point-of-interest (POI) and human mobility
data. Specifically, ReCP comprises two major modules, namely an intra-view
learning module utilizing contrastive learning and feature reconstruction to
capture the unique information from each single view, and inter-view learning
module that perceives the consistency between the two views using a contrastive
prediction learning scheme. We conduct thorough experiments on two downstream
tasks to assess the proposed model, i.e., land use clustering and region
popularity prediction. The experimental results demonstrate that our model
outperforms state-of-the-art baseline methods significantly in urban region
representation learning.
- Abstract(参考訳): 近年,都市における多様な社会経済的特徴の分布を深く理解するために,マルチモーダルデータ(情報視点)を用いた都市地域表現の学習が盛んに行われている。
しかし、従来の手法は通常、後続の段階で多視点情報をブレンドし、異なる視点にまたがるコヒーレントで一貫した表現の学習に不足する。
本稿では,様々な視点から一貫した表現を学習するための新しいパイプラインを構築し,poi(point-of-interest)とモビリティデータから複数の情報ビューを活用するrecp(multi-view contrastive prediction model for urban region embedded)を提案する。
具体的には、ReCPは、コントラスト学習と特徴再構成を利用して個々のビューからユニークな情報をキャプチャするビュー内学習モジュールと、コントラスト予測学習スキームを用いて2つのビュー間の一貫性を知覚するビュー間学習モジュールの2つの主要モジュールから構成される。
提案モデル,すなわち土地利用クラスタリングと地域人気予測を評価するため,下流2つの課題について徹底的な実験を行った。
実験の結果,都市域の表現学習において,我々のモデルは最先端のベースライン手法よりも優れていた。
関連論文リスト
- Explainable Hierarchical Urban Representation Learning for Commuting Flow Prediction [1.5156879440024378]
通勤フロー予測は、現実の自治体の業務に欠かせない課題である。
我々は,異なるタイプのODフローを予測するために,意味のある領域埋め込みを生成するヘテロジニアスグラフベースモデルを開発した。
提案モデルでは,一様都市構造の観点から既存モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-27T03:30:01Z) - Multi-view Fuzzy Representation Learning with Rules based Model [25.997490574254172]
教師なしマルチビュー表現学習は、マルチビューデータをマイニングするために広く研究されている。
本稿では,MVRL_FSを用いた多視点ファジィ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-20T17:13:15Z) - Attentive Graph Enhanced Region Representation Learning [7.4106801792345705]
都市部を正確にかつ包括的に表現することは,様々な都市計画・分析業務に不可欠である。
本研究では,複数のグラフから包括的依存関係を抽出し,都市域のリッチな意味表現を学習することを目的としたAttentive Graph Enhanced Region Representation Learning (ATGRL)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:38:43Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Style-Hallucinated Dual Consistency Learning: A Unified Framework for
Visual Domain Generalization [113.03189252044773]
本稿では,様々な視覚的タスクにおけるドメインシフトを処理するための統合フレームワークであるStyle-HAllucinated Dual consistEncy Learning (SHADE)を提案する。
我々の汎用SHADEは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、様々な視覚認識タスクにおける一般化を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-18T11:42:51Z) - Region Embedding with Intra and Inter-View Contrastive Learning [29.141194278469417]
非教師なし地域表現学習は、未ラベルの都市データから密集した効果的な特徴を抽出することを目的としている。
表現学習におけるコントラスト学習の成功に触発され,多視点領域表現学習に活用することを提案する。
本研究では,特徴ある領域埋め込みの学習を支援するビュー内コントラスト学習モジュールと,ソフトなコレギュラライザとして機能するビュー間コントラスト学習モジュールを設計する。
論文 参考訳(メタデータ) (2022-11-15T10:57:20Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。