論文の概要: Region Embedding with Intra and Inter-View Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.08975v1
- Date: Tue, 15 Nov 2022 10:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:18:25.861702
- Title: Region Embedding with Intra and Inter-View Contrastive Learning
- Title(参考訳): イントラビューとインタートラスト学習を用いた領域埋め込み
- Authors: Liang Zhang, Cheng Long, and Gao Cong
- Abstract要約: 非教師なし地域表現学習は、未ラベルの都市データから密集した効果的な特徴を抽出することを目的としている。
表現学習におけるコントラスト学習の成功に触発され,多視点領域表現学習に活用することを提案する。
本研究では,特徴ある領域埋め込みの学習を支援するビュー内コントラスト学習モジュールと,ソフトなコレギュラライザとして機能するビュー間コントラスト学習モジュールを設計する。
- 参考スコア(独自算出の注目度): 29.141194278469417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised region representation learning aims to extract dense and
effective features from unlabeled urban data. While some efforts have been made
for solving this problem based on multiple views, existing methods are still
insufficient in extracting representations in a view and/or incorporating
representations from different views. Motivated by the success of contrastive
learning for representation learning, we propose to leverage it for multi-view
region representation learning and design a model called ReMVC (Region
Embedding with Multi-View Contrastive Learning) by following two guidelines: i)
comparing a region with others within each view for effective representation
extraction and ii) comparing a region with itself across different views for
cross-view information sharing. We design the intra-view contrastive learning
module which helps to learn distinguished region embeddings and the inter-view
contrastive learning module which serves as a soft co-regularizer to constrain
the embedding parameters and transfer knowledge across multi-views. We exploit
the learned region embeddings in two downstream tasks named land usage
clustering and region popularity prediction. Extensive experiments demonstrate
that our model achieves impressive improvements compared with seven
state-of-the-art baseline methods, and the margins are over 30% in the land
usage clustering task.
- Abstract(参考訳): 教師なし地域表現学習は、ラベルなしの都市データから高密度で効果的な特徴を抽出することを目的としている。
複数のビューに基づいてこの問題を解決するためにいくつかの努力がなされているが、既存のメソッドではビュー内の表現の抽出や異なるビューからの表現の取り込みが不十分である。
表現学習におけるコントラスト学習の成功に動機づけられ、これを多視点領域表現学習に活用し、remvc(multi-view contrastive learning)と呼ばれるモデルを2つのガイドラインで設計する。
一 有効表現抽出のために各ビュー内の他地域と比較すること
二 クロスビュー情報共有のための異なる視点にまたがる地域の比較。
本研究では,異なる領域埋め込みの学習を支援するビュー内コントラスト学習モジュールを設計し,マルチビューにまたがる埋め込みパラメータの制約や知識の伝達を行うソフトコレギュラライザとして機能するビュー間コントラスト学習モジュールを設計する。
ランド利用クラスタリングと地域人気予測という2つの下流タスクで学習した領域埋め込みを活用した。
大規模実験により, 土地利用クラスタリングタスクのマージンは30%を超え, 従来の7つのベースライン手法と比較して, 優れた改善が得られた。
関連論文リスト
- Visual In-Context Learning for Large Vision-Language Models [62.5507897575317]
大規模視覚言語モデル(LVLM)では、言語間相互作用や表現格差の課題により、ICL(In-Context Learning)の有効性が制限されている。
本稿では,視覚的記述型検索,意図的画像要約,意図的記述型合成を含む新しい視覚的記述型学習(VICL)手法を提案する。
提案手法は'Retrieval & Rerank'パラダイムを用いて画像を検索し,タスク意図とタスク固有の視覚的パーシングで画像を要約し,言語による実演を構成する。
論文 参考訳(メタデータ) (2024-02-18T12:43:38Z) - Urban Region Embedding via Multi-View Contrastive Prediction [22.164358462563996]
さまざまなビューにまたがる一貫性のある表現を学ぶために、新しいパイプラインを構築します。
本モデルは,都市部における表現学習において,最先端のベースライン手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-15T10:53:09Z) - Attentive Graph Enhanced Region Representation Learning [7.4106801792345705]
都市部を正確にかつ包括的に表現することは,様々な都市計画・分析業務に不可欠である。
本研究では,複数のグラフから包括的依存関係を抽出し,都市域のリッチな意味表現を学習することを目的としたAttentive Graph Enhanced Region Representation Learning (ATGRL)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:38:43Z) - Minimum Class Confusion based Transfer for Land Cover Segmentation in
Rural and Urban Regions [0.0]
本研究では,移動学習手法を用いて土地被覆地図の作成を可能にするセマンティックセグメンテーション手法を提案する。
低解像度画像で訓練されたモデルと、対象領域やズームレベルの不十分なデータを比較した。
都市部における移動学習のセグメンテーション性能は,農村部では3.4%,都市部では12.9%であった。
論文 参考訳(メタデータ) (2022-12-05T09:41:06Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - RegionCL: Can Simple Region Swapping Contribute to Contrastive Learning? [76.16156833138038]
地域コントラスト学習(RegionCL)という,シンプルで効果的な前提文タスクを提案する。
具体的には、2つの異なる画像が与えられた場合、各画像から同じ大きさの領域をランダムに収穫し、それを交換して2つの新しい画像と左の領域を合成する。
RegionCLは、これらの豊富なペアを利用して、モデルをキャンバスとペーストの両方のビューと区別するのに役立つ。
論文 参考訳(メタデータ) (2021-11-24T07:19:46Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Learning Neighborhood Representation from Multi-Modal Multi-Graph:
Image, Text, Mobility Graph and Beyond [20.014906526266795]
本稿では,マルチモーダルジオタグ入力をノードまたはエッジの特徴として統合する新しい手法を提案する。
具体的には、ストリートビュー画像とpoi特徴を用いて、近傍(ノード)を特徴付け、人間移動を用いて近隣(方向エッジ)間の関係を特徴付ける。
トレーニングした埋め込みは、ユニモーダルデータのみを地域入力として使用するものよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T07:44:05Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。