論文の概要: Plug-and-Play DISep: Separating Dense Instances for Scene-to-Pixel Weakly-Supervised Change Detection in High-Resolution Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2501.04934v1
- Date: Thu, 09 Jan 2025 02:52:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:59:18.625883
- Title: Plug-and-Play DISep: Separating Dense Instances for Scene-to-Pixel Weakly-Supervised Change Detection in High-Resolution Remote Sensing Images
- Title(参考訳): プラグ・アンド・プレイ・ディップ:高解像度リモートセンシング画像におけるシーン・ツー・ピクチャー・ウェイクアップされた変化検出のためのディッセンス・インスタンス分離
- Authors: Zhenghui Zhao, Chen Wu, Lixiang Ru, Di Wang, Hongruixuan Chen, Cuiqun Chen,
- Abstract要約: 既存のWakly-Supervised Change Detection (WSCD) 手法は、シーンレベルの監視下での「インスタント・ランプ」の問題にしばしば遭遇する。
本稿では,Dense Instance separation (DISep) 法をプラグアンドプレイソリューションとして提案する。
- 参考スコア(独自算出の注目度): 14.260975406042448
- License:
- Abstract: Existing Weakly-Supervised Change Detection (WSCD) methods often encounter the problem of "instance lumping" under scene-level supervision, particularly in scenarios with a dense distribution of changed instances (i.e., changed objects). In these scenarios, unchanged pixels between changed instances are also mistakenly identified as changed, causing multiple changes to be mistakenly viewed as one. In practical applications, this issue prevents the accurate quantification of the number of changes. To address this issue, we propose a Dense Instance Separation (DISep) method as a plug-and-play solution, refining pixel features from a unified instance perspective under scene-level supervision. Specifically, our DISep comprises a three-step iterative training process: 1) Instance Localization: We locate instance candidate regions for changed pixels using high-pass class activation maps. 2) Instance Retrieval: We identify and group these changed pixels into different instance IDs through connectivity searching. Then, based on the assigned instance IDs, we extract corresponding pixel-level features on a per-instance basis. 3) Instance Separation: We introduce a separation loss to enforce intra-instance pixel consistency in the embedding space, thereby ensuring separable instance feature representations. The proposed DISep adds only minimal training cost and no inference cost. It can be seamlessly integrated to enhance existing WSCD methods. We achieve state-of-the-art performance by enhancing {three Transformer-based and four ConvNet-based methods} on the LEVIR-CD, WHU-CD, DSIFN-CD, SYSU-CD, and CDD datasets. Additionally, our DISep can be used to improve fully-supervised change detection methods. Code is available at https://github.com/zhenghuizhao/Plug-and-Play-DISep-for-Change-Detection.
- Abstract(参考訳): 既存のWakly-Supervised Change Detection (WSCD) の手法は、シーンレベルの監視下において、特に変化したインスタンスの密集した分布(つまり、変化したオブジェクト)のシナリオにおいて、"インスタンスラッピング"(instance lumping)の問題にしばしば遭遇する。
これらのシナリオでは、変更したインスタンス間の変化しないピクセルも誤って変更として識別され、複数の変更が誤って1つと見なされる。
現実的な応用では、この問題は変更数の正確な定量化を妨げている。
この問題に対処するため,Dense Instance separation (DISep) メソッドをプラグアンドプレイソリューションとして提案する。
具体的には、私たちのDisepは3段階の反復的なトレーニングプロセスで構成されています。
1) インスタンスのローカライゼーション: 高域クラスのアクティベーションマップを用いて変更画素のインスタンス候補領域を特定する。
2) インスタンス検索: これらの変化したピクセルを接続検索を通じて異なるインスタンスIDに識別し、グループ化する。
そして、割り当てられたインスタンスIDに基づいて、各インスタンスごとに対応するピクセルレベルの特徴を抽出する。
3) インスタンス分離: 埋め込み空間におけるインスタンス内ピクセルの一貫性を強制する分離損失を導入し,インスタンスの特徴表現を分離する。
提案されたdisepは、最小限のトレーニングコストと推論コストのみを加算する。
既存のWSCDメソッドを強化するためにシームレスに統合することができる。
LEVIR-CD, WHU-CD, DSIFN-CD, SYSU-CD, CDDデータセット上で, {3 Transformer-based and four ConvNet-based method} を拡張し, 最先端性能を実現する。
さらに、Disepは、完全な教師付き変更検出方法を改善するために使用することができる。
コードはhttps://github.com/zhenghuizhao/Plug-and-play-DISep-for-Change-Detectionで公開されている。
関連論文リスト
- BAISeg: Boundary Assisted Weakly Supervised Instance Segmentation [9.6046915661065]
インスタンスレベルの監視なしにインスタンスレベルのマスクを抽出する方法は、弱教師付きインスタンスセグメンテーション(WSIS)の主な課題である
人気のあるWSIS手法は、画素間関係の学習を通じて変位場(DF)を推定し、インスタンスを識別するためのクラスタリングを実行する。
本稿では,画素レベルのアノテーションでインスタンスセグメンテーションを実現するWSISの新しいパラダイムであるBundary-Assisted Instance(BAISeg)を提案する。
論文 参考訳(メタデータ) (2024-05-27T15:14:09Z) - InstanceDiffusion: Instance-level Control for Image Generation [89.31908006870422]
InstanceDiffusionは、テキストから画像への拡散モデルに正確なインスタンスレベルの制御を追加する。
そこで本研究では,テキスト・ツー・イメージ・モデルに3つの大きな変更を加えて,高精度なインスタンスレベルの制御を実現する。
論文 参考訳(メタデータ) (2024-02-05T18:49:17Z) - Exchange means change: an unsupervised single-temporal change detection
framework based on intra- and inter-image patch exchange [44.845959222180866]
画像内および画像間パッチ交換(I3PE)に基づく教師なし単一時間CDフレームワークを提案する。
I3PEフレームワークは、損傷のない、ラベルなしの単一時間リモートセンシング画像上で、深い変化検出を訓練することができる。
I3PEは教師なしのアプローチよりも優れており、SOTA法では10.65%と6.99%のF1値の改善を実現している。
論文 参考訳(メタデータ) (2023-10-01T14:50:54Z) - Changes-Aware Transformer: Learning Generalized Changes Representation [56.917000244470174]
差分特徴の精細化のための新しい変化認識変換器(CAT)を提案する。
様々な変化の一般化表現は、差分特徴空間において容易に学習される。
精細化後、差分特徴空間における変化画素同士が近接し、変化検出を容易にする。
論文 参考訳(メタデータ) (2023-09-24T12:21:57Z) - Exploring Effective Priors and Efficient Models for Weakly-Supervised Change Detection [9.229278131265124]
弱教師付き変化検出(WSCD)は、画像レベルのアノテーションだけでピクセルレベルの変化を検出することを目的としている。
Dilated Prior (DP) デコーダと Label Gated (LG) 制約の2つのコンポーネントを提案する。
提案したTransWCDとTransWCD-DLは,WHU-CDデータセットの最先端手法に比べて,有意な+6.33%,+9.55%のF1スコア向上を実現している。
論文 参考訳(メタデータ) (2023-07-20T13:16:10Z) - GCD-DDPM: A Generative Change Detection Model Based on
Difference-Feature Guided DDPM [7.922421805234563]
深層学習法は近年,バイテンポラルチェンジ検出(CD)において大きな可能性を秘めている
本研究は,CDマップを直接生成するGCD-DDPMと呼ばれる生成的変化検出モデルを提案する。
4つの高解像度CDデータセットの実験により、提案したGCD-DDPMの優れた性能が確認された。
論文 参考訳(メタデータ) (2023-06-06T05:51:50Z) - SARAS-Net: Scale and Relation Aware Siamese Network for Change Detection [6.12477318852572]
変化検出(CD)は、異なるタイミングで2つの画像の違いを見つけ、その領域が変化したか否かを表す変更マップを出力することを目的としている。
多くのState-of-The-Art(SoTA)メソッドは、強力な識別能力を持つディープラーニングモデルを設計する。
本稿では,この問題に対処するためのネットワークであるスケール・アンド・リレーション・アウェア・シームズ・ネットワーク(SARAS-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T16:30:33Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - SIOD: Single Instance Annotated Per Category Per Image for Object
Detection [67.64774488115299]
画像内の既存のカテゴリ毎に1つのインスタンスアノテーションのみを必要とする単一インスタンスアノテーションオブジェクト検出(SIOD)を提案する。
WSOD(Inter-task)やSSOD(Inter-image)の相違点からイメージ内の相違点に分解されたSIODは、ラベルなしインスタンスの残りをマイニングする上で、より信頼性が高く豊富な事前知識を提供する。
SIOD設定下では、類似性に基づく擬似ラベル生成モジュール(SPLG)と、Pixelレベルのグループコントラスト学習モジュール(PGCL)からなる、シンプルで効果的なフレームワークであるDual-Mining(DMiner)を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:49:51Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - I^3Net: Implicit Instance-Invariant Network for Adapting One-Stage
Object Detectors [64.93963042395976]
暗黙のInstance-Invariant Network(I3Net)は、ワンステージ検出器の適応に適しています。
i3netは、異なる層における深い特徴の自然な特徴を利用してインスタンス不変な特徴を暗黙的に学習する。
実験によると、I3Netはベンチマークデータセットの最先端のパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2021-03-25T11:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。