論文の概要: STNet: Spatial and Temporal feature fusion network for change detection
in remote sensing images
- arxiv url: http://arxiv.org/abs/2304.11422v1
- Date: Sat, 22 Apr 2023 14:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:41:06.389864
- Title: STNet: Spatial and Temporal feature fusion network for change detection
in remote sensing images
- Title(参考訳): stnet: リモートセンシング画像における変化検出のための時間的・時間的特徴融合ネットワーク
- Authors: Xiaowen Ma, Jiawei Yang, Tingfeng Hong, Mengting Ma, Ziyan Zhao, Tian
Feng and Wei Zhang
- Abstract要約: 空間的・時間的特徴融合に基づくリモートセンシング変化検出ネットワークSTNetを提案する。
RSCDのための3つのベンチマークデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 5.258365841490956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important task in remote sensing image analysis, remote sensing change
detection (RSCD) aims to identify changes of interest in a region from
spatially co-registered multi-temporal remote sensing images, so as to monitor
the local development. Existing RSCD methods usually formulate RSCD as a binary
classification task, representing changes of interest by merely feature
concatenation or feature subtraction and recovering the spatial details via
densely connected change representations, whose performances need further
improvement. In this paper, we propose STNet, a RSCD network based on spatial
and temporal feature fusions. Specifically, we design a temporal feature fusion
(TFF) module to combine bi-temporal features using a cross-temporal gating
mechanism for emphasizing changes of interest; a spatial feature fusion module
is deployed to capture fine-grained information using a cross-scale attention
mechanism for recovering the spatial details of change representations.
Experimental results on three benchmark datasets for RSCD demonstrate that the
proposed method achieves the state-of-the-art performance. Code is available at
https://github.com/xwmaxwma/rschange.
- Abstract(参考訳): リモートセンシング画像解析における重要な課題として、リモートセンシング変化検出(RSCD)は、空間的に共存したマルチ時間リモートセンシング画像から地域における関心の変化を特定し、局所的な発達を監視することを目的としている。
既存のRSCD法は通常、RSCDを二分分類タスクとして定式化し、単に特徴連結や特徴減算だけで関心の変化を表現し、より高密度に連結された変化表現によって空間的詳細を復元する。
本稿では,空間的・時間的特徴融合に基づくRSCDネットワークSTNetを提案する。
具体的には,時間的特徴融合(tff)モジュールをデザインし,興味の変化を強調するクロスタイムゲーティング機構を用いて,時間的特徴融合モジュールを合成し,空間的特徴融合モジュールを配置し,変化表現の空間的詳細を復元するクロススケール注意機構を用いて細かな情報をキャプチャする。
RSCDのための3つのベンチマークデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
コードはhttps://github.com/xwmaxwma/rschangeで入手できる。
関連論文リスト
- Wavelet-based Bi-dimensional Aggregation Network for SAR Image Change Detection [53.842568573251214]
3つのSARデータセットによる実験結果から、我々のWBANetは現代最先端の手法を著しく上回っていることが明らかとなった。
我々のWBANetは、それぞれのデータセットで98.33%、96.65%、96.62%の正確な分類(PCC)を達成している。
論文 参考訳(メタデータ) (2024-07-18T04:36:10Z) - Relating CNN-Transformer Fusion Network for Change Detection [23.025190360146635]
RCTNetは、空間的特徴と時間的特徴の両方を利用する早期融合バックボーンを導入した。
実験では、従来のRS画像CD法よりもRCTNetの方が明らかに優れていることを示した。
論文 参考訳(メタデータ) (2024-07-03T14:58:40Z) - DDLNet: Boosting Remote Sensing Change Detection with Dual-Domain Learning [5.932234366793244]
変化センシング(RSCD)は、多時間リモートセンシング画像を分析して、ある領域における関心の変化を特定することを目的としている。
既存のRSCD法は、関心の変化を高めるために空間領域におけるコンテキストモデリングに費やされている。
二重領域学習(周波数領域と空間領域)に基づくRSCDネットワークDNetを提案する。
論文 参考訳(メタデータ) (2024-06-19T14:54:09Z) - SRC-Net: Bi-Temporal Spatial Relationship Concerned Network for Change Detection [9.682463974799893]
リモートセンシング画像における変化検出(CD)は, 環境モニタリング, 都市開発, 災害管理における重要な課題である。
本稿では,CDのための時空間関係ネットワークであるSRC-Netを提案する。
論文 参考訳(メタデータ) (2024-06-09T06:53:39Z) - ChangeBind: A Hybrid Change Encoder for Remote Sensing Change Detection [16.62779899494721]
変化検出(CD)は、異なる時刻スタンプで同じ地理的領域間の意味的変化を検出することを目的とした、リモートセンシング(RS)の基本課題である。
本稿では,バイテンポラルRS画像における意味変化をエンコードする,効果的なSiameseベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-26T17:47:14Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Remote Sensing Image Change Detection with Graph Interaction [1.8579693774597708]
本稿では,BGINet-CDを用いたリモートセンシングによる画像変化検出のためのバイテンポラル画像グラフインタラクションネットワークを提案する。
本モデルは,GZ CDデータセット上の他の最先端手法(SOTA)と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-05T03:32:49Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Co-Saliency Spatio-Temporal Interaction Network for Person
Re-Identification in Videos [85.6430597108455]
本稿では,ビデオにおける人物の身元確認のためのCSTNet(Co-Saliency Spatio-Temporal Interaction Network)を提案する。
ビデオフレーム間の共通した有意な前景領域をキャプチャし、そのような領域からの空間的時間的長距離コンテキストの相互依存性を探索する。
CSTNet内の複数の空間的時間的相互作用モジュールを提案し,その特徴と空間的時間的情報相関の空間的・時間的長期的相互依存性を利用した。
論文 参考訳(メタデータ) (2020-04-10T10:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。