論文の概要: Dsfer-Net: A Deep Supervision and Feature Retrieval Network for
Bitemporal Change Detection Using Modern Hopfield Networks
- arxiv url: http://arxiv.org/abs/2304.01101v1
- Date: Mon, 3 Apr 2023 16:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:34:29.893829
- Title: Dsfer-Net: A Deep Supervision and Feature Retrieval Network for
Bitemporal Change Detection Using Modern Hopfield Networks
- Title(参考訳): Dsfer-Net:近代ホップフィールドネットワークを用いたバイテンポラル変化検出のための深層スーパービジョンと特徴検索ネットワーク
- Authors: Shizhen Chang, Michael Kopp, Pedram Ghamisi
- Abstract要約: 本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には、バイテンポラル画像の高度に代表的な深い特徴を、完全に畳み込みされたシームズネットワークを通じて、共同で抽出する。
また,特徴検索モジュールを設計し,特徴の差分を抽出し,識別情報を深く教師された方法で活用する。
- 参考スコア(独自算出の注目度): 12.719327447589345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection, as an important application for high-resolution remote
sensing images, aims to monitor and analyze changes in the land surface over
time. With the rapid growth in the quantity of high-resolution remote sensing
data and the complexity of texture features, a number of quantitative deep
learning-based methods have been proposed. Although these methods outperform
traditional change detection methods by extracting deep features and combining
spatial-temporal information, reasonable explanations about how deep features
work on improving the detection performance are still lacking. In our
investigations, we find that modern Hopfield network layers achieve
considerable performance in semantic understandings. In this paper, we propose
a Deep Supervision and FEature Retrieval network (Dsfer-Net) for bitemporal
change detection. Specifically, the highly representative deep features of
bitemporal images are jointly extracted through a fully convolutional Siamese
network. Based on the sequential geo-information of the bitemporal images, we
then design a feature retrieval module to retrieve the difference feature and
leverage discriminative information in a deeply supervised manner. We also note
that the deeply supervised feature retrieval module gives explainable proofs
about the semantic understandings of the proposed network in its deep layers.
Finally, this end-to-end network achieves a novel framework by aggregating the
retrieved features and feature pairs from different layers. Experiments
conducted on three public datasets (LEVIR-CD, WHU-CD, and CDD) confirm the
superiority of the proposed Dsfer-Net over other state-of-the-art methods. Code
will be available online (https://github.com/ShizhenChang/Dsfer-Net).
- Abstract(参考訳): 高解像度リモートセンシング画像への重要な応用として,地表面の変化の監視と解析が目的である。
高解像度リモートセンシングデータの量の増加とテクスチャの特徴の複雑さにより、多くの定量的深層学習手法が提案されている。
これらの手法は,深部特徴抽出と空間時空間情報の組み合わせによって従来の変化検出手法を上回っているが,検出性能向上における深い特徴の作用についての合理的な説明はいまだに欠けている。
本研究では,現代のホップフィールドネットワーク層がセマンティック理解においてかなりの性能を発揮することを示す。
本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には,完全畳み込み型シャムネットワークを用いて,バイテンポラル画像の高度に代表される深い特徴を抽出する。
バイテンポラル画像の逐次的地理情報に基づいて特徴検索モジュールを設計し,特徴特徴を抽出し,識別情報を深く教師された方法で活用する。
また,教師付き特徴検索モジュールは,提案するネットワークの深い層における意味的理解について説明可能な証明を与える。
最後に、このエンドツーエンドネットワークは、異なるレイヤから取得した特徴と特徴ペアを集約することで、新しいフレームワークを実現する。
3つの公開データセット(LEVIR-CD、WHU-CD、CDD)で実施された実験は、提案したDsfer-Netが他の最先端手法よりも優れていることを確認した。
コードはオンラインで入手できる(https://github.com/ShizhenChang/Dsfer-Net)。
関連論文リスト
- Relating CNN-Transformer Fusion Network for Change Detection [23.025190360146635]
RCTNetは、空間的特徴と時間的特徴の両方を利用する早期融合バックボーンを導入した。
実験では、従来のRS画像CD法よりもRCTNetの方が明らかに優れていることを示した。
論文 参考訳(メタデータ) (2024-07-03T14:58:40Z) - AMANet: Advancing SAR Ship Detection with Adaptive Multi-Hierarchical
Attention Network [0.5437298646956507]
適応型多階層型アテンションモジュール (AMAM) を提案する。
まず,隣り合う特徴層からの情報を融合して,より小さなターゲットの検出を強化し,マルチスケールな特徴強調を実現する。
第3に,AMAMをバックボーンネットワークと特徴ピラミッドネットワークに埋め込むことにより,適応型多階層アテンションネットワーク(AMANet)を提案する。
論文 参考訳(メタデータ) (2024-01-24T03:56:33Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Global-Local Path Networks for Monocular Depth Estimation with Vertical
CutDepth [24.897377434844266]
単分子深度推定のための新しい構造とトレーニング戦略を提案する。
階層型トランスフォーマーエンコーダをデプロイして,グローバルなコンテキストをキャプチャし,伝達し,軽量で強力なデコーダを設計する。
我々のネットワークは、挑戦的な深度データセットNYU Depth V2に対して最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-01-19T06:37:21Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Deep Siamese Domain Adaptation Convolutional Neural Network for
Cross-domain Change Detection in Multispectral Images [28.683734356006262]
クロスドメイン変化検出のための新しいディープ・サイムズ・ドメイン適応畳み込みニューラルネットワーク(DSDANet)アーキテクチャを提案する。
我々の知る限りでは、このようなドメイン適応に基づくディープネットワークが変更検出のために提案されたのは初めてである。
論文 参考訳(メタデータ) (2020-04-13T02:15:04Z) - From W-Net to CDGAN: Bi-temporal Change Detection via Deep Learning
Techniques [43.58400031452662]
W-Netと呼ばれるエンドツーエンドのデュアルブランチアーキテクチャを提案し、各ブランチは2つのバイテンポラルイメージのうちの1つを入力として取り込む。
また、最近人気になったGAN(Generative Adversarial Network)を応用し、当社のW-Netがジェネレータとして機能している。
ネットワークをトレーニングし,今後の研究を促進するために,Google Earthから画像を収集して大規模なデータセットを構築する。
論文 参考訳(メタデータ) (2020-03-14T09:24:08Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。