論文の概要: Land-cover change detection using paired OpenStreetMap data and optical
high-resolution imagery via object-guided Transformer
- arxiv url: http://arxiv.org/abs/2310.02674v1
- Date: Wed, 4 Oct 2023 09:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 16:03:11.926272
- Title: Land-cover change detection using paired OpenStreetMap data and optical
high-resolution imagery via object-guided Transformer
- Title(参考訳): OpenStreetMapデータとオブジェクト指向トランスを用いた高分解能画像を用いた土地被覆変化検出
- Authors: Hongruixuan Chen and Cuiling Lan and Jian Song and Clifford
Broni-Bediako and Junshi Xia and Naoto Yokoya
- Abstract要約: 光高解像度画像とOpenStreetMap(OSM)データは、土地被覆変化検出のための2つの重要なデータソースである。
本稿では,ペアOSMデータと光学画像を用いた土地被覆変化の直接検出の先駆者となる。
- 参考スコア(独自算出の注目度): 33.345785788991975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optical high-resolution imagery and OpenStreetMap (OSM) data are two
important data sources for land-cover change detection. Previous studies in
these two data sources focus on utilizing the information in OSM data to aid
the change detection on multi-temporal optical high-resolution images. This
paper pioneers the direct detection of land-cover changes utilizing paired OSM
data and optical imagery, thereby broadening the horizons of change detection
tasks to encompass more dynamic earth observations. To this end, we propose an
object-guided Transformer (ObjFormer) architecture by naturally combining the
prevalent object-based image analysis (OBIA) technique with the advanced vision
Transformer architecture. The introduction of OBIA can significantly reduce the
computational overhead and memory burden in the self-attention module.
Specifically, the proposed ObjFormer has a hierarchical pseudo-siamese encoder
consisting of object-guided self-attention modules that extract representative
features of different levels from OSM data and optical images; a decoder
consisting of object-guided cross-attention modules can progressively recover
the land-cover changes from the extracted heterogeneous features. In addition
to the basic supervised binary change detection task, this paper raises a new
semi-supervised semantic change detection task that does not require any
manually annotated land-cover labels of optical images to train semantic change
detectors. Two lightweight semantic decoders are added to ObjFormer to
accomplish this task efficiently. A converse cross-entropy loss is designed to
fully utilize the negative samples, thereby contributing to the great
performance improvement in this task. The first large-scale benchmark dataset
containing 1,287 map-image pairs (1024$\times$ 1024 pixels for each sample)
covering 40 regions on six continents ...(see the manuscript for the full
abstract)
- Abstract(参考訳): 光高分解能画像とopenstreetmap(osm)データは、土地被覆変化検出のための2つの重要なデータ源である。
これら2つのデータソースにおける従来の研究は、OSMデータの情報を利用して、マルチ時間光高解像度画像の変化検出に役立っている。
本稿では,OSMデータと光学画像を用いた土地被覆変化の直接検出を先導し,よりダイナミックな地球観測を包含する変化検出タスクの地平線を拡大する。
そこで本研究では、オブジェクト指向画像解析(OBIA)技術と高度な視覚変換器アーキテクチャを自然に組み合わせ、オブジェクト指向変換器(ObjFormer)アーキテクチャを提案する。
OBIAの導入により、自己保持モジュールの計算オーバーヘッドとメモリ負荷を大幅に削減できる。
具体的には、ObjFormerは、OSMデータと光画像から異なるレベルの代表的特徴を抽出するオブジェクト誘導自己アテンションモジュールからなる階層的な擬似スキームエンコーダを持ち、オブジェクト誘導相互アテンションモジュールからなるデコーダは、抽出した異種特徴から土地被覆変化を段階的に回復することができる。
本稿では,基本的な2値変化検出タスクに加えて,手動でアノテートされた光学画像のランドカバーラベルを必要としない半教師付きセマンティックな変化検出タスクを提起する。
このタスクを効率的に達成するために、2つの軽量セマンティックデコーダがObjFormerに追加されている。
逆クロスエントロピー損失は負のサンプルを十分に活用するように設計され、このタスクの性能向上に寄与する。
1,287の地図画像ペア(1024$\times$ 1024 pixels for each sample)を含む最初の大規模ベンチマークデータセットは、6大陸の40の領域をカバーしている。
関連論文リスト
- PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - A Simple yet Effective Network based on Vision Transformer for
Camouflaged Object and Salient Object Detection [33.30644598646274]
視覚変換器(ViT)に基づく簡易で効果的なネットワーク(SENet)を提案する。
ローカル情報をモデル化するTransformerの機能を強化するために,ローカル情報キャプチャモジュール(licM)を提案する。
また,BCE(Binary Cross-Entropy)とIoU(Intersection over Union)に基づく動的重み付き損失(DW損失)を提案する。
論文 参考訳(メタデータ) (2024-02-29T07:29:28Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Camouflaged Object Detection with Feature Grafting and Distractor Aware [9.791590363932519]
そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
論文 参考訳(メタデータ) (2023-07-08T09:37:08Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Detector Guidance for Multi-Object Text-to-Image Generation [61.70018793720616]
Detector Guidance(DG)は、潜在オブジェクト検出モデルを統合して、生成プロセス中に異なるオブジェクトを分離する。
人間の評価は、DGが対立する概念の融合を防ぐのに8-22%の利点をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-04T02:33:12Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。