論文の概要: A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection
- arxiv url: http://arxiv.org/abs/2310.01876v1
- Date: Tue, 3 Oct 2023 08:26:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 16:53:48.659686
- Title: A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection
- Title(参考訳): リモートセンシング画像変化検出のための二重注意生成支援ネットワーク
- Authors: Luyi Qiu and Xiaofeng Zhang and ChaoChen Gu and and ShanYing Zhu
- Abstract要約: 本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
- 参考スコア(独自算出の注目度): 6.906936669510404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote sensing change detection between bi-temporal images receives growing
concentration from researchers. However, comparing two bi-temporal images for
detecting changes is challenging, as they demonstrate different appearances. In
this paper, we propose a dual attentive generative adversarial network for
achieving very high-resolution remote sensing image change detection tasks,
which regards the detection model as a generator and attains the optimal
weights of the detection model without increasing the parameters of the
detection model through generative-adversarial strategy, boosting the spatial
contiguity of predictions. Moreover, We design a multi-level feature extractor
for effectively fusing multi-level features, which adopts the pre-trained model
to extract multi-level features from bi-temporal images and introduces
aggregate connections to fuse them. To strengthen the identification of
multi-scale objects, we propose a multi-scale adaptive fusion module to
adaptively fuse multi-scale features through various receptive fields and
design a context refinement module to explore contextual dependencies.
Moreover, the DAGAN framework utilizes the 4-layer convolution network as a
discriminator to identify whether the synthetic image is fake or real.
Extensive experiments represent that the DAGAN framework has better performance
with 85.01% mean IoU and 91.48% mean F1 score than advanced methods on the
LEVIR dataset.
- Abstract(参考訳): 両時間画像間のリモートセンシング変化検出は、研究者から濃度の上昇を受信する。
しかし、異なる外観を示すため、2つの両時間画像を比較して変化を検出することは困難である。
本稿では,検出モデルを生成元とみなし,検出モデルのパラメータを増加させることなく検出モデルの最適重みを達成し,予測の空間的連続性を向上する,高分解能なリモートセンシング画像変化検出タスクを実現する,二重注意生成逆数ネットワークを提案する。
さらに,事前学習モデルを採用し,バイタイム画像から多レベル特徴を抽出し,それらを融合するために集約接続を導入するマルチレベル特徴抽出器の設計を行った。
マルチスケールオブジェクトの識別を強化するために,様々な受容場を通じてマルチスケール機能を適応的に融合し,文脈依存を探索するコンテキストリファインメントモジュールを設計するマルチスケール適応融合モジュールを提案する。
さらに、daganフレームワークは4層畳み込みネットワークを判別器として使用し、合成画像が偽か本物かを識別する。
DAGANフレームワークは85.01%がIoUであり、91.48%がLEVIRデータセットの高度な手法よりもF1スコアである。
関連論文リスト
- DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Siamese Meets Diffusion Network: SMDNet for Enhanced Change Detection in
High-Resolution RS Imagery [7.767708235606408]
我々は,新しいネットワークであるSiamese-U2Net Feature Differential Meets Network (SMDNet)を提案する。
このネットワークは、画像エッジ変化検出の精度を向上させるために、Siam-U2Net Feature Differential (SU-FDE)とデノイング拡散暗黙モデルを組み合わせる。
特徴抽出モデルと拡散モデルを組み合わせることで,リモートセンシング画像における変化検出の有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T16:48:55Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - dual unet:a novel siamese network for change detection with cascade
differential fusion [4.651756476458979]
本稿では,変化検出タスク,すなわちDual-UNetのための新しいSiameseニューラルネットワークを提案する。
従来のバイテンポラル画像の符号化とは対照的に,画素の空間的差分関係に着目したエンコーダ差分アテンションモジュールを設計する。
実験により、提案手法は、一般的な季節変化検出データセットにおいて、常に最も高度な手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-12T14:24:09Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。