論文の概要: Background-Mixed Augmentation for Weakly Supervised Change Detection
- arxiv url: http://arxiv.org/abs/2211.11478v3
- Date: Tue, 20 Jun 2023 02:35:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 05:08:49.577594
- Title: Background-Mixed Augmentation for Weakly Supervised Change Detection
- Title(参考訳): 暗黙的な変更検出のためのバックグラウンドミキシング拡張
- Authors: Rui Huang, Ruofei Wang, Qing Guo, Jieda Wei, Yuxiang Zhang, Wei Fan,
Yang Liu
- Abstract要約: 変化検出(CD)とは、背景の変化(環境の変化など)からオブジェクトの変更(オブジェクトの欠落や出現)を分離することである。
近年の深層学習に基づく手法は,ペア学習を用いた新しいネットワークアーキテクチャや最適化戦略を開発している。
我々は,画像レベルのラベルのみを必要とする,弱教師付きトレーニングアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 18.319961338185458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection (CD) is to decouple object changes (i.e., object missing or
appearing) from background changes (i.e., environment variations) like light
and season variations in two images captured in the same scene over a long time
span, presenting critical applications in disaster management, urban
development, etc. In particular, the endless patterns of background changes
require detectors to have a high generalization against unseen environment
variations, making this task significantly challenging. Recent deep
learning-based methods develop novel network architectures or optimization
strategies with paired-training examples, which do not handle the
generalization issue explicitly and require huge manual pixel-level annotation
efforts. In this work, for the first attempt in the CD community, we study the
generalization issue of CD from the perspective of data augmentation and
develop a novel weakly supervised training algorithm that only needs
image-level labels. Different from general augmentation techniques for
classification, we propose the background-mixed augmentation that is
specifically designed for change detection by augmenting examples under the
guidance of a set of background-changing images and letting deep CD models see
diverse environment variations. Moreover, we propose the augmented & real data
consistency loss that encourages the generalization increase significantly. Our
method as a general framework can enhance a wide range of existing deep
learning-based detectors. We conduct extensive experiments in two public
datasets and enhance four state-of-the-art methods, demonstrating the
advantages of our method. We release the code at
https://github.com/tsingqguo/bgmix.
- Abstract(参考訳): 変化検出(CD)とは、災害管理、都市開発などにおいて重要な応用を提示し、長期間にわたって同じシーンで撮影された2つの画像において、背景の変化(環境の変化など)から物体の変化(オブジェクトの欠落や出現)を分離することである。
特に、背景変化の無限のパターンは、検出者が目に見えない環境変動に対して高い一般化を行う必要があるため、この課題は極めて困難である。
近年の深層学習に基づく手法は, 一般化問題を明示的に扱わず, 膨大な手動ピクセルレベルのアノテーション処理を必要とする, ペアリング学習例による新しいネットワークアーキテクチャや最適化戦略を開発する。
本研究では,CDコミュニティにおける最初の試みとして,データ拡張の観点からCDの一般化問題を考察し,画像レベルのラベルのみを必要とする,弱教師付きトレーニングアルゴリズムを開発した。
分類のための一般的な拡張手法とは違って,背景変化画像のセットのガイダンスに基づいて,変化検出用に特別に設計された背景混合拡張を提案し,深部CDモデルに環境変動を生じさせる。
さらに,一般化を著しく促進する拡張的および実データ整合性損失を提案する。
汎用フレームワークとしての手法は,既存の深層学習型検出器を広範囲に拡張することができる。
2つの公開データセットで広範な実験を行い,4つの最先端手法を強化し,その利点を実証した。
コードはhttps://github.com/tsingqguo/bgmixでリリースします。
関連論文リスト
- Robust Scene Change Detection Using Visual Foundation Models and Cross-Attention Mechanisms [27.882122236282054]
本稿では,視覚基礎モデルDINOv2の頑健な特徴抽出機能を活用したシーン変化検出手法を提案する。
我々は,VL-CMU-CDとPSCDの2つのベンチマークデータセットに対するアプローチと,その視点評価バージョンについて検討した。
実験では,F1スコアにおいて,特に画像ペア間の幾何学的変化を伴うシナリオにおいて,顕著な改善が示された。
論文 参考訳(メタデータ) (2024-09-25T11:55:27Z) - Single-temporal Supervised Remote Change Detection for Domain Generalization [42.55492600157288]
変化検出はリモートセンシング画像解析に広く応用されている。
既存の方法はデータセットごとに個別にトレーニングモデルを必要とする。
本稿では,変化検出領域の一般化のための視覚遅延事前学習に基づくマルチモーダルコントラスト学習(ChangeCLIP)を提案する。
論文 参考訳(メタデータ) (2024-04-17T12:38:58Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Weakly Supervised Change Detection via Knowledge Distillation and
Multiscale Sigmoid Inference [26.095501974608908]
我々は知識蒸留とマルチスケールシグモイド推論(KD-MSI)による弱教師付き変化検出技術を開発した。
提案手法は,その統合学習戦略により,最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2024-03-09T05:01:51Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Intra-Source Style Augmentation for Improved Domain Generalization [21.591831983223997]
セマンティックセグメンテーションにおける領域一般化を改善するために,イントラソーススタイル拡張(ISSA)手法を提案する。
ISSAはモデルに依存しず、CNNやTransformerで簡単に適用できる。
また、Cityscapes から Dark Z"urich の最近の最先端ソリューション RobustNet を $3%$ mIoU で改善するなど、他の領域の一般化手法を補完する。
論文 参考訳(メタデータ) (2022-10-18T21:33:25Z) - Federated Domain Generalization for Image Recognition via Cross-Client
Style Transfer [60.70102634957392]
ドメイン一般化(Domain Generalization, DG)は、画像認識においてホットなトピックであり、目に見えないドメインでうまく機能する一般的なモデルを訓練することを目的としている。
本稿では,データサンプルを交換することなく,クロスクライアント型転送(CCST)による画像認識のための新しい領域一般化手法を提案する。
本手法は2つのDGベンチマーク(PACS, OfficeHome)とFL設定における大規模医用画像データセット(Camelyon17)において,最近のSOTA DG法より優れている。
論文 参考訳(メタデータ) (2022-10-03T13:15:55Z) - dual unet:a novel siamese network for change detection with cascade
differential fusion [4.651756476458979]
本稿では,変化検出タスク,すなわちDual-UNetのための新しいSiameseニューラルネットワークを提案する。
従来のバイテンポラル画像の符号化とは対照的に,画素の空間的差分関係に着目したエンコーダ差分アテンションモジュールを設計する。
実験により、提案手法は、一般的な季節変化検出データセットにおいて、常に最も高度な手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-12T14:24:09Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Towards Universal Representation Learning for Deep Face Recognition [106.21744671876704]
対象のドメイン知識を活用せずに、与えられたトレーニングデータに見つからない大きな変化に対処できる普遍的な表現学習フレームワークを提案する。
実験により,LFW や MegaFace などの一般的な顔認識データセットにおいて,本手法が最高性能を実現することを示す。
論文 参考訳(メタデータ) (2020-02-26T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。