論文の概要: Land-cover change detection using paired OpenStreetMap data and optical
high-resolution imagery via object-guided Transformer
- arxiv url: http://arxiv.org/abs/2310.02674v2
- Date: Wed, 25 Oct 2023 14:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 19:29:30.788450
- Title: Land-cover change detection using paired OpenStreetMap data and optical
high-resolution imagery via object-guided Transformer
- Title(参考訳): OpenStreetMapデータとオブジェクト指向トランスを用いた高分解能画像を用いた土地被覆変化検出
- Authors: Hongruixuan Chen and Cuiling Lan and Jian Song and Clifford
Broni-Bediako and Junshi Xia and Naoto Yokoya
- Abstract要約: 光高解像度画像とOpenStreetMap(OSM)データは、土地被覆変化検出のための2つの重要なデータソースである。
本稿では,ペアOSMデータと光学画像を用いた土地被覆変化の直接検出の先駆者となる。
- 参考スコア(独自算出の注目度): 33.345785788991975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optical high-resolution imagery and OpenStreetMap (OSM) data are two
important data sources for land-cover change detection. Previous studies in
these two data sources focus on utilizing the information in OSM data to aid
the change detection on multi-temporal optical high-resolution images. This
paper pioneers the direct detection of land-cover changes utilizing paired OSM
data and optical imagery, thereby broadening the horizons of change detection
tasks to encompass more dynamic earth observations. To this end, we propose an
object-guided Transformer (ObjFormer) architecture by naturally combining the
prevalent object-based image analysis (OBIA) technique with the advanced vision
Transformer architecture. The introduction of OBIA can significantly reduce the
computational overhead and memory burden in the self-attention module.
Specifically, the proposed ObjFormer has a hierarchical pseudo-siamese encoder
consisting of object-guided self-attention modules that extract representative
features of different levels from OSM data and optical images; a decoder
consisting of object-guided cross-attention modules can progressively recover
the land-cover changes from the extracted heterogeneous features. In addition
to the basic supervised binary change detection task, this paper raises a new
semi-supervised semantic change detection task that does not require any
manually annotated land-cover labels of optical images to train semantic change
detectors. Two lightweight semantic decoders are added to ObjFormer to
accomplish this task efficiently. A converse cross-entropy loss is designed to
fully utilize the negative samples, thereby contributing to the great
performance improvement in this task. The first large-scale benchmark dataset
containing 1,287 map-image pairs (1024$\times$ 1024 pixels for each sample)
covering 40 regions on six continents ...(see the manuscript for the full
abstract)
- Abstract(参考訳): 光高分解能画像とopenstreetmap(osm)データは、土地被覆変化検出のための2つの重要なデータ源である。
これら2つのデータソースにおける従来の研究は、OSMデータの情報を利用して、マルチ時間光高解像度画像の変化検出に役立っている。
本稿では,OSMデータと光学画像を用いた土地被覆変化の直接検出を先導し,よりダイナミックな地球観測を包含する変化検出タスクの地平線を拡大する。
そこで本研究では、オブジェクト指向画像解析(OBIA)技術と高度な視覚変換器アーキテクチャを自然に組み合わせ、オブジェクト指向変換器(ObjFormer)アーキテクチャを提案する。
OBIAの導入により、自己保持モジュールの計算オーバーヘッドとメモリ負荷を大幅に削減できる。
具体的には、ObjFormerは、OSMデータと光画像から異なるレベルの代表的特徴を抽出するオブジェクト誘導自己アテンションモジュールからなる階層的な擬似スキームエンコーダを持ち、オブジェクト誘導相互アテンションモジュールからなるデコーダは、抽出した異種特徴から土地被覆変化を段階的に回復することができる。
本稿では,基本的な2値変化検出タスクに加えて,手動でアノテートされた光学画像のランドカバーラベルを必要としない半教師付きセマンティックな変化検出タスクを提起する。
このタスクを効率的に達成するために、2つの軽量セマンティックデコーダがObjFormerに追加されている。
逆クロスエントロピー損失は負のサンプルを十分に活用するように設計され、このタスクの性能向上に寄与する。
1,287の地図画像ペア(1024$\times$ 1024 pixels for each sample)を含む最初の大規模ベンチマークデータセットは、6大陸の40の領域をカバーしている。
関連論文リスト
- DAMSDet: Dynamic Adaptive Multispectral Detection Transformer with
Competitive Query Selection and Adaptive Feature Fusion [82.2425759608975]
赤外可視物体検出は、赤外画像と可視画像の相補的情報を融合することにより、フルデイ物体検出の堅牢化を目指している。
本稿では,この2つの課題に対処する動的適応型マルチスペクトル検出変換器(DAMSDet)を提案する。
4つの公開データセットの実験は、他の最先端の手法と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-01T07:03:27Z) - Change Detection Between Optical Remote Sensing Imagery and Map Data via
Segment Anything Model (SAM) [20.985372561774415]
光高解像度画像とOpenStreetMap(OSM)データという2つの主要なリモートセンシングデータソース間の教師なしマルチモーダル変化検出について検討する。
我々はSAMのセグメンテーションプロセスを導くための2つの戦略、すなわち'no-prompt'と'box/mask prompt'メソッドを紹介した。
3つのデータセットの実験結果から,提案手法がより競争力のある結果が得られることが示唆された。
論文 参考訳(メタデータ) (2024-01-17T07:30:52Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Multimodal Transformer Using Cross-Channel attention for Object
Detection in Remote Sensing Images [1.8160945635344523]
オブジェクト検出のためのマルチソースリモートセンシングデータを探索するマルチモーダルトランスフォーマーを提案する。
チャネルワイズ接続によるマルチモーダル入力を直接結合するのではなく,チャネル間アテンションモジュールを提案する。
このモジュールは異なるチャネル間の関係を学習し、コヒーレントなマルチモーダル入力の構築を可能にする。
また、固定次元を維持しつつ、非シフトブロックに畳み込み層を組み込んだSwin変換器に基づく新しいアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - T-UNet: Triplet UNet for Change Detection in High-Resolution Remote
Sensing Images [5.849243433046327]
現在、ほとんどの変更検出方法は、シームズネットワーク構造または初期の核融合構造に基づいている。
本稿では,3分岐エンコーダをベースとしたTriplet UNet(T-UNet)を提案する。
デコーダの段階では、詳細なテクスチャ情報を完全にマイニングし統合するためのチャネルアテンション機構(CAM)と空間アテンション機構(SAM)を導入する。
論文 参考訳(メタデータ) (2023-08-04T14:44:11Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。