論文の概要: Urban Region Representation Learning with Attentive Fusion
- arxiv url: http://arxiv.org/abs/2312.04606v2
- Date: Fri, 26 Apr 2024 05:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 17:48:19.322915
- Title: Urban Region Representation Learning with Attentive Fusion
- Title(参考訳): 注意融合による都市域表現学習
- Authors: Fengze Sun, Jianzhong Qi, Yanchuan Chang, Xiaoliang Fan, Shanika Karunasekera, Egemen Tanin,
- Abstract要約: 本稿では,都市域の表現,すなわち埋め込みを学習するための新しいモデルを提案する。
我々のモデルはDAFusionという名前の二重機能減衰核融合モジュールによって駆動される。
学習した領域の埋め込みを使用することで、予測精度が最大31%向上する。
- 参考スコア(独自算出の注目度): 18.095344335507082
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An increasing number of related urban data sources have brought forth novel opportunities for learning urban region representations, i.e., embeddings. The embeddings describe latent features of urban regions and enable discovering similar regions for urban planning applications. Existing methods learn an embedding for a region using every different type of region feature data, and subsequently fuse all learned embeddings of a region to generate a unified region embedding. However, these studies often overlook the significance of the fusion process. The typical fusion methods rely on simple aggregation, such as summation and concatenation, thereby disregarding correlations within the fused region embeddings. To address this limitation, we propose a novel model named HAFusion. Our model is powered by a dual-feature attentive fusion module named DAFusion, which fuses embeddings from different region features to learn higher-order correlations between the regions as well as between the different types of region features. DAFusion is generic - it can be integrated into existing models to enhance their fusion process. Further, motivated by the effective fusion capability of an attentive module, we propose a hybrid attentive feature learning module named HALearning to enhance the embedding learning from each individual type of region features. Extensive experiments on three real-world datasets demonstrate that our model HAFusion outperforms state-of-the-art methods across three different prediction tasks. Using our learned region embedding leads to consistent and up to 31% improvements in the prediction accuracy.
- Abstract(参考訳): 関連する都市データソースが増加し、都市部の表現、すなわち埋め込みを学習する新たな機会が生まれている。
埋め込みは、都市部の潜在特性を記述し、都市計画への応用に類似した地域を発見することができる。
既存手法では,各種類の地域特徴データを用いて領域の埋め込みを学習し,学習したすべての領域の埋め込みを融合させて統一された領域埋め込みを生成する。
しかし、これらの研究はしばしば核融合プロセスの重要性を見落としている。
典型的な融合法は、和や結合のような単純な集合に依存し、融合領域の埋め込み内での相関を無視する。
この制限に対処するため,HAFusion という新しいモデルを提案する。
我々のモデルはDAFusionという名前の二重機能減衰核融合モジュールを用いており、これは異なる領域の特徴からの埋め込みを融合させ、各領域の特徴と異なるタイプの領域特徴の間の高次相関を学習する。
DAFusionはジェネリックです - 既存のモデルに統合して、融合プロセスを強化することができます。
さらに,注意モジュールの有効融合能力に動機づけられたHALearningというハイブリッド注意機能学習モジュールを提案し,各タイプの地域特徴からの埋め込み学習を強化する。
3つの実世界のデータセットに対する大規模な実験は、我々のモデルHAFusionが3つの異なる予測タスクで最先端の手法より優れていることを示した。
学習した領域の埋め込みを使用することで、予測精度が最大31%向上する。
関連論文リスト
- Explainable Hierarchical Urban Representation Learning for Commuting Flow Prediction [1.5156879440024378]
通勤フロー予測は、現実の自治体の業務に欠かせない課題である。
我々は,異なるタイプのODフローを予測するために,意味のある領域埋め込みを生成するヘテロジニアスグラフベースモデルを開発した。
提案モデルでは,一様都市構造の観点から既存モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-27T03:30:01Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Bayesian Diffusion Models for 3D Shape Reconstruction [54.69889488052155]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - Enhanced Urban Region Profiling with Adversarial Contrastive Learning [7.62909500335772]
EUPACは、都市部埋め込みの堅牢性を高める新しいフレームワークである。
本モデルでは,領域内および領域間依存関係を保存する領域埋め込みを生成する。
実世界のデータセットの実験は、最先端の手法よりもモデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T06:06:45Z) - Attentive Graph Enhanced Region Representation Learning [7.4106801792345705]
都市部を正確にかつ包括的に表現することは,様々な都市計画・分析業務に不可欠である。
本研究では,複数のグラフから包括的依存関係を抽出し,都市域のリッチな意味表現を学習することを目的としたAttentive Graph Enhanced Region Representation Learning (ATGRL)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:38:43Z) - GIVL: Improving Geographical Inclusivity of Vision-Language Models with
Pre-Training Methods [62.076647211744564]
我々は地理包摂型視覚・言語事前学習モデルであるGIVLを提案する。
1) 類似のカテゴリにおける概念は独自の知識と視覚的特徴を持ち、2) 類似の視覚的特徴を持つ概念は、全く異なるカテゴリに該当する可能性がある。
GIVLは、同様のスケールのデータを事前訓練した類似サイズのモデルと比較して、最先端のSOTA(State-of-the-art)を達成し、ジオディバースなV&Lタスクにおけるよりバランスの取れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-01-05T03:43:45Z) - Urban Region Profiling via A Multi-Graph Representation Learning
Framework [0.0]
本研究では,都市域のプロファイリングのための多グラフ代表学習フレームワークであるRerea2Vecを提案する。
実世界のデータセットの実験によると、Rerea2Vecは3つのアプリケーションで使用でき、最先端のベースラインをすべて上回っている。
論文 参考訳(メタデータ) (2022-02-04T11:05:37Z) - Multi-Graph Fusion Networks for Urban Region Embedding [40.97361959702485]
ヒトの移動データから都市部の埋め込みを学習することで、地域の機能を明らかにすることができ、犯罪予測のような相関性はあるものの異なるタスクを可能にする。
クロスドメイン予測タスクを実現するために,MGFN(Multi-graph fusion Network)を提案する。
実験の結果、提案されたMGFNは最先端の手法よりも最大12.35%優れていた。
論文 参考訳(メタデータ) (2022-01-24T15:48:50Z) - PRA-Net: Point Relation-Aware Network for 3D Point Cloud Analysis [56.91758845045371]
我々はポイント関係認識ネットワーク(PRA-Net)という新しいフレームワークを提案する。
領域内構造学習(ISL)モジュールと領域間関係学習(IRL)モジュールで構成されている。
形状分類,キーポイント推定,部分セグメンテーションを含む複数の3次元ベンチマーク実験により,PRA-Netの有効性と性能が検証された。
論文 参考訳(メタデータ) (2021-12-09T13:24:43Z) - Light Field Saliency Detection with Dual Local Graph Learning
andReciprocative Guidance [148.9832328803202]
我々は、グラフネットワークを介して焦点スタック内のインフォメーション融合をモデル化する。
我々は、全焦点パタンを用いて焦点スタック融合過程をガイドする新しいデュアルグラフモデルを構築した。
論文 参考訳(メタデータ) (2021-10-02T00:54:39Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。