論文の概要: The Change You Want To Detect: Semantic Change Detection In Earth Observation With Hybrid Data Generation
- arxiv url: http://arxiv.org/abs/2503.15683v1
- Date: Wed, 19 Mar 2025 20:32:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:18.459043
- Title: The Change You Want To Detect: Semantic Change Detection In Earth Observation With Hybrid Data Generation
- Title(参考訳): ハイブリッドデータによる地球観測における意味的変化検出
- Authors: Benidir Yanis, Gonthier Nicolas, Mallet Clement,
- Abstract要約: 超高分解能(VHR)画像に基づく大規模なバイ時間変化検出は、地球観測に不可欠である。
ほとんどのアプローチでは、時間的および空間的適応に必要な汎用性は示さない。
我々は,大規模なハイブリッドな意味変化検出データセットを作成するための生成パイプラインHySCDGを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bi-temporal change detection at scale based on Very High Resolution (VHR) images is crucial for Earth monitoring. This remains poorly addressed so far: methods either require large volumes of annotated data (semantic case), or are limited to restricted datasets (binary set-ups). Most approaches do not exhibit the versatility required for temporal and spatial adaptation: simplicity in architecture design and pretraining on realistic and comprehensive datasets. Synthetic datasets are the key solution but still fail to handle complex and diverse scenes. In this paper, we present HySCDG a generative pipeline for creating a large hybrid semantic change detection dataset that contains both real VHR images and inpainted ones, along with land cover semantic map at both dates and the change map. Being semantically and spatially guided, HySCDG generates realistic images, leading to a comprehensive and hybrid transfer-proof dataset FSC-180k. We evaluate FSC-180k on five change detection cases (binary and semantic), from zero-shot to mixed and sequential training, and also under low data regime training. Experiments demonstrate that pretraining on our hybrid dataset leads to a significant performance boost, outperforming SyntheWorld, a fully synthetic dataset, in every configuration. All codes, models, and data are available here: $\href{https://yb23.github.io/projects/cywd/}{https://yb23.github.io/projects/cywd/}$.
- Abstract(参考訳): 超高分解能(VHR)画像に基づく大規模なバイ時間変化検出は、地球観測に不可欠である。
メソッドは大量の注釈付きデータ(セマンティックケース)を必要とするか、制限付きデータセット(バイナリセット)に限定されている。
ほとんどのアプローチは、時間的および空間的適応に必要な汎用性(アーキテクチャ設計の単純さと現実的で包括的なデータセットの事前訓練)を示していない。
合成データセットは重要なソリューションであるが、複雑で多様なシーンを処理できない。
本稿では,HySCDGを用いて,実VHR画像と塗布画像の両方を含む大規模ハイブリッドな意味変化検出データセットを作成する。
意味的かつ空間的にガイドされたHySCDGは、現実的な画像を生成し、包括的でハイブリッドな転送保護データセット FSC-180k に繋がる。
FSC-180kは, ゼロショットから混合, シーケンシャルトレーニングまでの5つの変化検出症例(バイナリ, セマンティック)で評価し, 同時に低データレギュレーショントレーニングも行った。
ハイブリッドデータセットでの事前トレーニングは、すべての構成において、完全に合成されたデータセットであるSyntheWorldよりもパフォーマンスが大幅に向上することを示した。
すべてのコード、モデル、データはここで入手できる。 $\href{https://yb23.github.io/projects/cywd/}{https://yb23.github.io/projects/cywd/}$。
関連論文リスト
- TransformDAS: Mapping Φ-OTDR Signals to Riemannian Manifold for Robust Classification [2.845523526282637]
位相感度光時間領域反射法(Phi-OTDR)は、工学において広く使われている光ファイバーセンシングシステムである。
Phi-OTDRイベント分類のための機械学習アルゴリズムは、データセットのボリュームと品質を必要とする。
この問題に対処するための有望なアプローチの1つは、生成モデルと少数の実世界のデータを組み合わせて既存のデータを拡張することである。
論文 参考訳(メタデータ) (2025-02-04T15:53:30Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - AnySat: An Earth Observation Model for Any Resolutions, Scales, and Modalities [5.767156832161819]
本稿では,JEPAと分解能適応型空間エンコーダに基づくマルチモーダルモデルであるAnySatを提案する。
この統一アプローチの利点を示すために、5ドルのマルチモーダルデータセットのコレクションであるGeoPlexをコンパイルする。
次に、これらの多様なデータセット上で、単一の強力なモデルを同時にトレーニングします。
論文 参考訳(メタデータ) (2024-12-18T18:11:53Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - CrossLoc: Scalable Aerial Localization Assisted by Multimodal Synthetic
Data [2.554905387213586]
本稿では,合成データを用いて実世界のカメラポーズを推定する視覚的位置決めシステムを提案する。
データ不足を緩和するために,汎用な合成データ生成ツールTOPO-DataGenを導入する。
また、ポーズ推定のためのクロスモーダル視覚表現学習手法であるCrossLocを導入する。
論文 参考訳(メタデータ) (2021-12-16T18:05:48Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Virtual to Real adaptation of Pedestrian Detectors [9.432150710329607]
ViPeDは、ビデオゲームGTA V - Grand Theft Auto Vのグラフィカルエンジンで収集された新しい合成画像セットである。
本稿では,歩行者検出作業に適した2つの異なる領域適応手法を提案する。
実験によると、ViPeDでトレーニングされたネットワークは、実世界のデータでトレーニングされた検出器よりも、目に見えない現実世界のシナリオを一般化できる。
論文 参考訳(メタデータ) (2020-01-09T14:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。