論文の概要: STNet: Spatial and Temporal feature fusion network for change detection
in remote sensing images
- arxiv url: http://arxiv.org/abs/2304.11422v1
- Date: Sat, 22 Apr 2023 14:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:41:06.389864
- Title: STNet: Spatial and Temporal feature fusion network for change detection
in remote sensing images
- Title(参考訳): stnet: リモートセンシング画像における変化検出のための時間的・時間的特徴融合ネットワーク
- Authors: Xiaowen Ma, Jiawei Yang, Tingfeng Hong, Mengting Ma, Ziyan Zhao, Tian
Feng and Wei Zhang
- Abstract要約: 空間的・時間的特徴融合に基づくリモートセンシング変化検出ネットワークSTNetを提案する。
RSCDのための3つのベンチマークデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 5.258365841490956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important task in remote sensing image analysis, remote sensing change
detection (RSCD) aims to identify changes of interest in a region from
spatially co-registered multi-temporal remote sensing images, so as to monitor
the local development. Existing RSCD methods usually formulate RSCD as a binary
classification task, representing changes of interest by merely feature
concatenation or feature subtraction and recovering the spatial details via
densely connected change representations, whose performances need further
improvement. In this paper, we propose STNet, a RSCD network based on spatial
and temporal feature fusions. Specifically, we design a temporal feature fusion
(TFF) module to combine bi-temporal features using a cross-temporal gating
mechanism for emphasizing changes of interest; a spatial feature fusion module
is deployed to capture fine-grained information using a cross-scale attention
mechanism for recovering the spatial details of change representations.
Experimental results on three benchmark datasets for RSCD demonstrate that the
proposed method achieves the state-of-the-art performance. Code is available at
https://github.com/xwmaxwma/rschange.
- Abstract(参考訳): リモートセンシング画像解析における重要な課題として、リモートセンシング変化検出(RSCD)は、空間的に共存したマルチ時間リモートセンシング画像から地域における関心の変化を特定し、局所的な発達を監視することを目的としている。
既存のRSCD法は通常、RSCDを二分分類タスクとして定式化し、単に特徴連結や特徴減算だけで関心の変化を表現し、より高密度に連結された変化表現によって空間的詳細を復元する。
本稿では,空間的・時間的特徴融合に基づくRSCDネットワークSTNetを提案する。
具体的には,時間的特徴融合(tff)モジュールをデザインし,興味の変化を強調するクロスタイムゲーティング機構を用いて,時間的特徴融合モジュールを合成し,空間的特徴融合モジュールを配置し,変化表現の空間的詳細を復元するクロススケール注意機構を用いて細かな情報をキャプチャする。
RSCDのための3つのベンチマークデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
コードはhttps://github.com/xwmaxwma/rschangeで入手できる。
関連論文リスト
- TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - T-UNet: Triplet UNet for Change Detection in High-Resolution Remote
Sensing Images [5.849243433046327]
現在、ほとんどの変更検出方法は、シームズネットワーク構造または初期の核融合構造に基づいている。
本稿では,3分岐エンコーダをベースとしたTriplet UNet(T-UNet)を提案する。
デコーダの段階では、詳細なテクスチャ情報を完全にマイニングし統合するためのチャネルアテンション機構(CAM)と空間アテンション機構(SAM)を導入する。
論文 参考訳(メタデータ) (2023-08-04T14:44:11Z) - Remote Sensing Image Change Detection with Graph Interaction [1.8579693774597708]
本稿では,BGINet-CDを用いたリモートセンシングによる画像変化検出のためのバイテンポラル画像グラフインタラクションネットワークを提案する。
本モデルは,GZ CDデータセット上の他の最先端手法(SOTA)と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-05T03:32:49Z) - Spatial-Temporal Enhanced Transformer Towards Multi-Frame 3D Object
Detection [59.03596380773798]
我々は、DETRのようなパラダイムに基づいた、多フレーム3Dオブジェクト検出のための新しいエンドツーエンドフレームワークであるSTEMDを提案する。
具体的には、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
我々は,計算オーバーヘッドをわずかに加えるだけで,難解なシナリオに対処する手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Dsfer-Net: A Deep Supervision and Feature Retrieval Network for
Bitemporal Change Detection Using Modern Hopfield Networks [12.719327447589345]
本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には、バイテンポラル画像の高度に代表的な深い特徴を、完全に畳み込みされたシームズネットワークを通じて、共同で抽出する。
また,特徴検索モジュールを設計し,特徴の差分を抽出し,識別情報を深く教師された方法で活用する。
論文 参考訳(メタデータ) (2023-04-03T16:01:03Z) - Joint Spatio-Temporal Modeling for the Semantic Change Detection in
Remote Sensing Images [22.72105435238235]
両時間RSI間の「から」意味遷移を明示的にモデル化するための意味変化(SCanFormer)を提案する。
次に,SCDタスクに忠実な Transformer 時間制約を活用する意味学習手法を導入し,意味変化の学習を指導する。
結果として得られたネットワーク(SCanNet)は、決定的意味変化の検出と、得られた両時間的結果のセマンティック一貫性の両方において、ベースライン法より優れている。
論文 参考訳(メタデータ) (2022-12-10T08:49:19Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Change Detection in Synthetic Aperture Radar Images Using a Dual-Domain
Network [33.50775914682585]
合成開口レーダ(SAR)画像からの変化検出は、重要かつ困難な作業です。
既存の手法は主に空間領域の特徴抽出に焦点を当てており、周波数領域にはほとんど注意が払われていない。
上記の2つの課題に取り組むためのデュアルドメインネットワークを提案します。
論文 参考訳(メタデータ) (2021-04-14T08:41:48Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Co-Saliency Spatio-Temporal Interaction Network for Person
Re-Identification in Videos [85.6430597108455]
本稿では,ビデオにおける人物の身元確認のためのCSTNet(Co-Saliency Spatio-Temporal Interaction Network)を提案する。
ビデオフレーム間の共通した有意な前景領域をキャプチャし、そのような領域からの空間的時間的長距離コンテキストの相互依存性を探索する。
CSTNet内の複数の空間的時間的相互作用モジュールを提案し,その特徴と空間的時間的情報相関の空間的・時間的長期的相互依存性を利用した。
論文 参考訳(メタデータ) (2020-04-10T10:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。