論文の概要: Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction
- arxiv url: http://arxiv.org/abs/2111.15119v1
- Date: Tue, 30 Nov 2021 04:30:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 13:27:46.952070
- Title: Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction
- Title(参考訳): クラウドソースによる軌道画像:ロバストな道路抽出のための新しいアプローチ
- Authors: Lingbo Liu and Zewei Yang and Guanbin Li and Kuo Wang and Tianshui
Chen and Liang Lin
- Abstract要約: 我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
- 参考スコア(独自算出の注目度): 110.61383502442598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Land remote sensing analysis is a crucial research in earth science. In this
work, we focus on a challenging task of land analysis, i.e., automatic
extraction of traffic roads from remote sensing data, which has widespread
applications in urban development and expansion estimation. Nevertheless,
conventional methods either only utilized the limited information of aerial
images, or simply fused multimodal information (e.g., vehicle trajectories),
thus cannot well recognize unconstrained roads. To facilitate this problem, we
introduce a novel neural network framework termed Cross-Modal Message
Propagation Network (CMMPNet), which fully benefits the complementary different
modal data (i.e., aerial images and crowdsourced trajectories). Specifically,
CMMPNet is composed of two deep Auto-Encoders for modality-specific
representation learning and a tailor-designed Dual Enhancement Module for
cross-modal representation refinement. In particular, the complementary
information of each modality is comprehensively extracted and dynamically
propagated to enhance the representation of another modality. Extensive
experiments on three real-world benchmarks demonstrate the effectiveness of our
CMMPNet for robust road extraction benefiting from blending different modal
data, either using image and trajectory data or image and Lidar data. From the
experimental results, we observe that the proposed approach outperforms current
state-of-the-art methods by large margins.
- Abstract(参考訳): 陸地リモートセンシング解析は地球科学における重要な研究である。
本研究では,都市開発と拡張推定に広く応用されているリモートセンシングデータから道路の自動抽出という,土地分析の課題に焦点を当てた。
それにもかかわらず、従来の方法では、航空画像の限られた情報のみを利用するか、単にマルチモーダル情報(例えば、車両軌道)を融合させることで、制約のない道路を十分に認識できない。
そこで本研究では,この問題を解決するために,交叉型メッセージ伝達ネットワーク(cmmpnet)と呼ばれる新しいニューラルネットワークフレームワークを提案する。
具体的には、CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
特に、各モダリティの補完情報を包括的に抽出して動的に伝播させ、他のモダリティの表現を促進する。
3つの実世界のベンチマーク実験により、画像と軌跡データまたは画像とライダーデータを用いて、異なるモーダルデータをブレンドすることによる堅牢な道路抽出に対するCMMPNetの有効性が実証された。
実験結果から,提案手法が現在の最先端手法を大きなマージンで上回っていることを確かめた。
関連論文リスト
- Trajectory Representation Learning on Road Networks and Grids with Spatio-Temporal Dynamics [0.8655526882770742]
軌道表現学習は、スマートシティや都市計画など分野の応用における基本的な課題である。
本稿では,時間的ダイナミクスを取り入れつつ,グリッドと道路ネットワークのモダリティを統合する新しいモデルであるTIGRを提案する。
実世界の2つのデータセット上でTIGRを評価し,両モードの組み合わせの有効性を実証した。
論文 参考訳(メタデータ) (2024-11-21T10:56:02Z) - Context-Enhanced Multi-View Trajectory Representation Learning: Bridging the Gap through Self-Supervised Models [27.316692263196277]
MVTrajは、軌道表現学習のための新しい多視点モデリング手法である。
GPSから道路網、関心点まで多様な文脈知識を統合し、軌跡データのより包括的な理解を提供する。
実世界のデータセットに対する大規模な実験により、MVTrajは様々な空間ビューに関連するタスクにおいて、既存のベースラインを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-17T03:56:12Z) - Think Twice Before Recognizing: Large Multimodal Models for General Fine-grained Traffic Sign Recognition [49.20086587208214]
我々は、微粒な交通標識認識(TSR)を改善するために認識する前に、思考と呼ばれる新しい戦略を提案する。
我々の戦略は、大型マルチモーダルモデル(LMM)の多重思考能力を刺激することで、有効な微粒化TSRを実現する。
論文 参考訳(メタデータ) (2024-09-03T02:08:47Z) - More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning [26.630640299709114]
本稿では,JGRMという自己監督技術に基づく共同GPSとルートモデリングを提案する。
我々は2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整した。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
論文 参考訳(メタデータ) (2024-02-25T18:27:25Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - DouFu: A Double Fusion Joint Learning Method For Driving Trajectory
Representation [13.321587117066166]
軌道表現型共同学習のための新しい多モード融合モデルDouFuを提案する。
まず、軌道データと都市機能ゾーンから生成された動き、経路、グローバルな特徴を設計する。
グローバルなセマンティック機能により、DouFuは各行に対して包括的な埋め込みを生成する。
論文 参考訳(メタデータ) (2022-05-05T07:43:35Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Scribble-based Weakly Supervised Deep Learning for Road Surface
Extraction from Remote Sensing Images [7.1577508803778045]
そこで我々は,ScRoadExtractor という,スクリブルに基づく弱制御路面抽出手法を提案する。
スパーススクリブルからラベルなし画素への意味情報を伝達するために,道路ラベルの伝搬アルゴリズムを導入する。
道路ラベル伝搬アルゴリズムから生成された提案マスクを用いて、デュアルブランチエンコーダデコーダネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-25T12:40:30Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。