論文の概要: Dsfer-Net: A Deep Supervision and Feature Retrieval Network for Bitemporal Change Detection Using Modern Hopfield Networks
- arxiv url: http://arxiv.org/abs/2304.01101v2
- Date: Tue, 4 Jun 2024 17:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 14:46:07.947347
- Title: Dsfer-Net: A Deep Supervision and Feature Retrieval Network for Bitemporal Change Detection Using Modern Hopfield Networks
- Title(参考訳): Dsfer-Net:近代ホップフィールドネットワークを用いたバイテンポラル変化検出のための深層スーパービジョンと特徴検索ネットワーク
- Authors: Shizhen Chang, Michael Kopp, Pedram Ghamisi, Bo Du,
- Abstract要約: 本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には、バイテンポラル画像の高度に代表的な深い特徴を、完全に畳み込みされたシームズネットワークを通じて、共同で抽出する。
エンド・ツー・エンドのネットワークは,異なるレイヤから抽出した特徴と特徴のペアを集約することで,新たなフレームワークを確立する。
- 参考スコア(独自算出の注目度): 35.415260892693745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection, an essential application for high-resolution remote sensing images, aims to monitor and analyze changes in the land surface over time. Due to the rapid increase in the quantity of high-resolution remote sensing data and the complexity of texture features, several quantitative deep learning-based methods have been proposed. These methods outperform traditional change detection methods by extracting deep features and combining spatial-temporal information. However, reasonable explanations for how deep features improve detection performance are still lacking. In our investigations, we found that modern Hopfield network layers significantly enhance semantic understanding. In this paper, we propose a Deep Supervision and FEature Retrieval network (Dsfer-Net) for bitemporal change detection. Specifically, the highly representative deep features of bitemporal images are jointly extracted through a fully convolutional Siamese network. Based on the sequential geographical information of the bitemporal images, we designed a feature retrieval module to extract difference features and leverage discriminative information in a deeply supervised manner. Additionally, we observed that the deeply supervised feature retrieval module provides explainable evidence of the semantic understanding of the proposed network in its deep layers. Finally, our end-to-end network establishes a novel framework by aggregating retrieved features and feature pairs from different layers. Experiments conducted on three public datasets (LEVIR-CD, WHU-CD, and CDD) confirm the superiority of the proposed Dsfer-Net over other state-of-the-art methods.
- Abstract(参考訳): 高解像度のリモートセンシング画像に欠かせない変化検出は、地表面の変化を時間とともに監視し、分析することを目的としている。
高解像度リモートセンシングデータの量の増加とテクスチャの特徴の複雑さのため、いくつかの定量的深層学習法が提案されている。
これらの手法は、深い特徴を抽出し、時空間情報を組み合わせることによって、従来の変化検出方法より優れている。
しかし、深い機能がどのように検出性能を改善するかについての合理的な説明はいまだに欠けている。
調査の結果,現代のホップフィールドネットワーク層はセマンティック理解を著しく向上させることがわかった。
本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には、バイテンポラル画像の高度に代表的な深い特徴を、完全に畳み込みされたシームズネットワークを通じて、共同で抽出する。
両時間画像の逐次的地理情報に基づいて,特徴抽出モジュールを設計し,特徴を抽出し,識別情報を深く教師された方法で活用する。
さらに,提案するネットワークの深い層における意味的理解に関する説明可能な証拠を,深く教師された特徴検索モジュールで提供することも確認した。
最後に、エンド・ツー・エンドのネットワークは、異なるレイヤから抽出した特徴と特徴ペアを集約することで、新しいフレームワークを確立する。
3つの公開データセット(LEVIR-CD、WHU-CD、CDD)で実施された実験は、提案したDsfer-Netが他の最先端手法よりも優れていることを確認した。
関連論文リスト
- Relating CNN-Transformer Fusion Network for Change Detection [23.025190360146635]
RCTNetは、空間的特徴と時間的特徴の両方を利用する早期融合バックボーンを導入した。
実験では、従来のRS画像CD法よりもRCTNetの方が明らかに優れていることを示した。
論文 参考訳(メタデータ) (2024-07-03T14:58:40Z) - AMANet: Advancing SAR Ship Detection with Adaptive Multi-Hierarchical
Attention Network [0.5437298646956507]
適応型多階層型アテンションモジュール (AMAM) を提案する。
まず,隣り合う特徴層からの情報を融合して,より小さなターゲットの検出を強化し,マルチスケールな特徴強調を実現する。
第3に,AMAMをバックボーンネットワークと特徴ピラミッドネットワークに埋め込むことにより,適応型多階層アテンションネットワーク(AMANet)を提案する。
論文 参考訳(メタデータ) (2024-01-24T03:56:33Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Global-Local Path Networks for Monocular Depth Estimation with Vertical
CutDepth [24.897377434844266]
単分子深度推定のための新しい構造とトレーニング戦略を提案する。
階層型トランスフォーマーエンコーダをデプロイして,グローバルなコンテキストをキャプチャし,伝達し,軽量で強力なデコーダを設計する。
我々のネットワークは、挑戦的な深度データセットNYU Depth V2に対して最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-01-19T06:37:21Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Deep Siamese Domain Adaptation Convolutional Neural Network for
Cross-domain Change Detection in Multispectral Images [28.683734356006262]
クロスドメイン変化検出のための新しいディープ・サイムズ・ドメイン適応畳み込みニューラルネットワーク(DSDANet)アーキテクチャを提案する。
我々の知る限りでは、このようなドメイン適応に基づくディープネットワークが変更検出のために提案されたのは初めてである。
論文 参考訳(メタデータ) (2020-04-13T02:15:04Z) - From W-Net to CDGAN: Bi-temporal Change Detection via Deep Learning
Techniques [43.58400031452662]
W-Netと呼ばれるエンドツーエンドのデュアルブランチアーキテクチャを提案し、各ブランチは2つのバイテンポラルイメージのうちの1つを入力として取り込む。
また、最近人気になったGAN(Generative Adversarial Network)を応用し、当社のW-Netがジェネレータとして機能している。
ネットワークをトレーニングし,今後の研究を促進するために,Google Earthから画像を収集して大規模なデータセットを構築する。
論文 参考訳(メタデータ) (2020-03-14T09:24:08Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。