論文の概要: Region-Wise Attentive Multi-View Representation Learning for Urban
Region Embeddings
- arxiv url: http://arxiv.org/abs/2307.03212v2
- Date: Tue, 23 Jan 2024 13:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 19:31:42.162923
- Title: Region-Wise Attentive Multi-View Representation Learning for Urban
Region Embeddings
- Title(参考訳): 都市部埋め込みのための地域意識多視点表現学習
- Authors: Weiliang Chan and Qianqian Ren
- Abstract要約: 本稿では,多視点依存を捉えるための領域ワイズ多視点表現学習(ROMER)を提案する。
本モデルは,マルチソース都市データから都市域の表現を学習することに焦点を当てる。
我々のモデルは最先端の手法を最大17%改善する。
- 参考スコア(独自算出の注目度): 5.034978908472446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Urban region embedding is an important and yet highly challenging issue due
to the complexity and constantly changing nature of urban data. To address the
challenges, we propose a Region-Wise Multi-View Representation Learning (ROMER)
to capture multi-view dependencies and learn expressive representations of
urban regions without the constraints of rigid neighbourhood region conditions.
Our model focus on learn urban region representation from multi-source urban
data. First, we capture the multi-view correlations from mobility flow
patterns, POI semantics and check-in dynamics. Then, we adopt global graph
attention networks to learn similarity of any two vertices in graphs. To
comprehensively consider and share features of multiple views, a two-stage
fusion module is further proposed to learn weights with external attention to
fuse multi-view embeddings. Extensive experiments for two downstream tasks on
real-world datasets demonstrate that our model outperforms state-of-the-art
methods by up to 17\% improvement.
- Abstract(参考訳): 都市領域の埋め込みは、複雑さと都市データの性質が絶えず変化するため、重要かつ非常に困難な問題である。
この課題に対処するため,我々は,都市域の多視点依存を捉えるための領域ワイズ多視点表現学習(ROMER)を提案し,厳密な地域条件の制約を伴わずに都市域の表現表現を学習する。
本モデルでは,多元都市データから都市域表現を学ぶことに注力する。
まず,モビリティフローパターン,poiセマンティクス,チェックインダイナミクスから多視点相関を捉える。
次に,グラフ内の2つの頂点の類似性を学習するために,グローバルグラフアテンションネットワークを採用する。
複数ビューの特徴を包括的に検討し共有するために,2段階の融合モジュールを提案し,外部の注意を払って重みを学習し,多視点埋め込みを実現する。
実世界のデータセット上での2つの下流タスクに対する大規模な実験により、我々のモデルは最先端の手法を最大17倍改善することを示した。
関連論文リスト
- Urban Region Embedding via Multi-View Contrastive Prediction [22.164358462563996]
さまざまなビューにまたがる一貫性のある表現を学ぶために、新しいパイプラインを構築します。
本モデルは,都市部における表現学習において,最先端のベースライン手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-15T10:53:09Z) - Cross-City Matters: A Multimodal Remote Sensing Benchmark Dataset for
Cross-City Semantic Segmentation using High-Resolution Domain Adaptation
Networks [82.82866901799565]
我々は,都市間セマンティックセマンティックセグメンテーションタスクの研究を目的とした,新しいマルチモーダルリモートセンシングベンチマークデータセット(ハイパースペクトル,マルチスペクトル,SARを含む)を構築した。
単一都市に留まらず,多都市環境からAIモデルの一般化能力を促進するため,高解像度なドメイン適応ネットワークであるHighDANを提案する。
高DANは, 並列高分解能融合方式で, 都市景観の空間的トポロジカルな構造を良好に維持することができる。
論文 参考訳(メタデータ) (2023-09-26T23:55:39Z) - Multi-Temporal Relationship Inference in Urban Areas [75.86026742632528]
場所間の時間的関係を見つけることは、動的なオフライン広告やスマートな公共交通計画など、多くの都市アプリケーションに役立つ。
空間的に進化するグラフニューラルネットワーク(SEENet)を含むグラフ学習方式によるTrialの解を提案する。
SEConvは時間内アグリゲーションと時間間伝搬を実行し、位置メッセージパッシングの観点から、多面的に空間的に進化するコンテキストをキャプチャする。
SE-SSLは、位置表現学習を強化し、関係の空間性をさらに扱えるように、グローバルな方法でタイムアウェアな自己教師型学習タスクを設計する。
論文 参考訳(メタデータ) (2023-06-15T07:48:32Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Learning to Fuse Monocular and Multi-view Cues for Multi-frame Depth
Estimation in Dynamic Scenes [51.20150148066458]
一般化されたマスクを必要とせず,ボリュームとして符号化された多視点と単眼のキューを融合させる新しい手法を提案する。
実世界のデータセットを用いた実験は,提案手法の有効性と性能を実証する。
論文 参考訳(メタデータ) (2023-04-18T13:55:24Z) - Region Embedding with Intra and Inter-View Contrastive Learning [29.141194278469417]
非教師なし地域表現学習は、未ラベルの都市データから密集した効果的な特徴を抽出することを目的としている。
表現学習におけるコントラスト学習の成功に触発され,多視点領域表現学習に活用することを提案する。
本研究では,特徴ある領域埋め込みの学習を支援するビュー内コントラスト学習モジュールと,ソフトなコレギュラライザとして機能するビュー間コントラスト学習モジュールを設計する。
論文 参考訳(メタデータ) (2022-11-15T10:57:20Z) - Urban Region Profiling via A Multi-Graph Representation Learning
Framework [0.0]
本研究では,都市域のプロファイリングのための多グラフ代表学習フレームワークであるRerea2Vecを提案する。
実世界のデータセットの実験によると、Rerea2Vecは3つのアプリケーションで使用でき、最先端のベースラインをすべて上回っている。
論文 参考訳(メタデータ) (2022-02-04T11:05:37Z) - Multi-Graph Fusion Networks for Urban Region Embedding [40.97361959702485]
ヒトの移動データから都市部の埋め込みを学習することで、地域の機能を明らかにすることができ、犯罪予測のような相関性はあるものの異なるタスクを可能にする。
クロスドメイン予測タスクを実現するために,MGFN(Multi-graph fusion Network)を提案する。
実験の結果、提案されたMGFNは最先端の手法よりも最大12.35%優れていた。
論文 参考訳(メタデータ) (2022-01-24T15:48:50Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Learning Neighborhood Representation from Multi-Modal Multi-Graph:
Image, Text, Mobility Graph and Beyond [20.014906526266795]
本稿では,マルチモーダルジオタグ入力をノードまたはエッジの特徴として統合する新しい手法を提案する。
具体的には、ストリートビュー画像とpoi特徴を用いて、近傍(ノード)を特徴付け、人間移動を用いて近隣(方向エッジ)間の関係を特徴付ける。
トレーニングした埋め込みは、ユニモーダルデータのみを地域入力として使用するものよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T07:44:05Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。