論文の概要: SChanger: Change Detection from a Semantic Change and Spatial Consistency Perspective
- arxiv url: http://arxiv.org/abs/2503.20734v1
- Date: Wed, 26 Mar 2025 17:15:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:20:11.473891
- Title: SChanger: Change Detection from a Semantic Change and Spatial Consistency Perspective
- Title(参考訳): SChanger:意味的変化からの変化検出と空間的一貫性
- Authors: Ziyu Zhou, Keyan Hu, Yutian Fang, Xiaoping Rui,
- Abstract要約: 我々は,データ不足問題に対処するため,セマンティック・チェンジ・ネットワーク(SCN)と呼ばれる微調整戦略を開発した。
両画像間の変化位置は空間的に同一であり,空間的整合性(空間的整合性)の概念である。
これにより、マルチスケールな変更のモデリングが強化され、変更検出セマンティクスの基盤となる関係を捉えるのに役立ちます。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License:
- Abstract: Change detection is a key task in Earth observation applications. Recently, deep learning methods have demonstrated strong performance and widespread application. However, change detection faces data scarcity due to the labor-intensive process of accurately aligning remote sensing images of the same area, which limits the performance of deep learning algorithms. To address the data scarcity issue, we develop a fine-tuning strategy called the Semantic Change Network (SCN). We initially pre-train the model on single-temporal supervised tasks to acquire prior knowledge of instance feature extraction. The model then employs a shared-weight Siamese architecture and extended Temporal Fusion Module (TFM) to preserve this prior knowledge and is fine-tuned on change detection tasks. The learned semantics for identifying all instances is changed to focus on identifying only the changes. Meanwhile, we observe that the locations of changes between the two images are spatially identical, a concept we refer to as spatial consistency. We introduce this inductive bias through an attention map that is generated by large-kernel convolutions and applied to the features from both time points. This enhances the modeling of multi-scale changes and helps capture underlying relationships in change detection semantics. We develop a binary change detection model utilizing these two strategies. The model is validated against state-of-the-art methods on six datasets, surpassing all benchmark methods and achieving F1 scores of 92.87%, 86.43%, 68.95%, 97.62%, 84.58%, and 93.20% on the LEVIR-CD, LEVIR-CD+, S2Looking, CDD, SYSU-CD, and WHU-CD datasets, respectively.
- Abstract(参考訳): 変化検出は地球観測における重要な課題である。
近年,ディープラーニング手法は高い性能と広範に応用されている。
しかし、変化検出は、同じ領域のリモートセンシング画像を正確に調整する労働集約的なプロセスにより、データ不足に直面し、ディープラーニングアルゴリズムの性能が制限される。
データ不足問題に対処するため、セマンティック・チェンジ・ネットワーク(SCN)と呼ばれる微調整戦略を開発した。
我々は最初、インスタンス特徴抽出の事前知識を得るために、単一時間的教師付きタスクでモデルを事前訓練する。
モデルでは、共有軽量のシームズアーキテクチャと拡張テンポラルフュージョンモジュール(TFM)を使用して、この事前知識を保存し、変更検出タスクを微調整する。
すべてのインスタンスを特定するための学習されたセマンティクスは、変更のみを特定することに集中するように変更される。
一方,2つの画像間の変化位置は空間的に同一であり,空間的整合性(空間的整合性)という概念がある。
本稿では、この帰納バイアスを、大きなカーネルの畳み込みによって生成される注目マップを通して導入し、両時点の特徴に適用する。
これにより、マルチスケールな変更のモデリングが強化され、変更検出セマンティクスの基盤となる関係を捉えるのに役立ちます。
これら2つの戦略を用いたバイナリ変更検出モデルを構築した。
このモデルは6つのデータセットの最先端手法に対して検証され、全てのベンチマーク手法を上回り、それぞれ LEVIR-CD, LEVIR-CD+, S2Looking, CDD, SYSU-CD, WHU-CDデータセットで92.87%, 86.43%, 68.95%, 97.62%, 84.58%, 93.20% のスコアを得た。
関連論文リスト
- Detect Changes like Humans: Incorporating Semantic Priors for Improved Change Detection [41.80924135539708]
本稿では,セマンティック・アウェア・チェンジ検出ネットワーク,すなわちSA-CDNetを提案する。
人間の視覚パラダイムにインスパイアされた新しいデュアルストリーム特徴デコーダは、変化を区別するために導出される。
また,ランドスケープのセマンティック理解を高めるために,単一時間的セマンティック事前学習戦略を設計する。
論文 参考訳(メタデータ) (2024-12-22T08:27:15Z) - Robust Scene Change Detection Using Visual Foundation Models and Cross-Attention Mechanisms [27.882122236282054]
本稿では,視覚基礎モデルDINOv2の頑健な特徴抽出機能を活用したシーン変化検出手法を提案する。
我々は,VL-CMU-CDとPSCDの2つのベンチマークデータセットに対するアプローチと,その視点評価バージョンについて検討した。
実験では,F1スコアにおいて,特に画像ペア間の幾何学的変化を伴うシナリオにおいて,顕著な改善が示された。
論文 参考訳(メタデータ) (2024-09-25T11:55:27Z) - Changen2: Multi-Temporal Remote Sensing Generative Change Foundation Model [62.337749660637755]
安価で自動的な生成モデルに基づく変更データ生成器を提案する。
Changen2は、自己監督を通じて大規模にトレーニング可能な、生成的な変更基盤モデルである。
得られたモデルには、固有のゼロショット変化検出機能と優れた転送性がある。
論文 参考訳(メタデータ) (2024-06-26T01:03:39Z) - Exchanging Dual Encoder-Decoder: A New Strategy for Change Detection
with Semantic Guidance and Spatial Localization [10.059696915598392]
セマンティックガイダンスと空間的ローカライゼーションを用いたバイナリ変更検出のための2つのエンコーダ・デコーダ構造を交換した新しい戦略を提案する。
この戦略に基づいてバイナリ変更検出モデルを構築し、それを6つのデータセット上で18の最先端の変更検出手法と比較する。
論文 参考訳(メタデータ) (2023-11-19T11:30:43Z) - Transformer-based Multimodal Change Detection with Multitask Consistency Constraints [10.906283981247796]
現在の変化検出方法は、意味変化検出タスクと高さ変化検出タスクのマルチタスク競合に対処する。
そこで我々は,クロスアテンションにより,多次元入力間の共有表現を学習する効率的なトランスフォーマーネットワークを提案する。
提案手法は,5つの現状変化検出手法と比較して,意味的および高さ変化検出の観点から,一貫したマルチタスク優位性を示す。
論文 参考訳(メタデータ) (2023-10-13T17:38:45Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Joint Spatio-Temporal Modeling for the Semantic Change Detection in
Remote Sensing Images [22.72105435238235]
両時間RSI間の「から」意味遷移を明示的にモデル化するための意味変化(SCanFormer)を提案する。
次に,SCDタスクに忠実な Transformer 時間制約を活用する意味学習手法を導入し,意味変化の学習を指導する。
結果として得られたネットワーク(SCanNet)は、決定的意味変化の検出と、得られた両時間的結果のセマンティック一貫性の両方において、ベースライン法より優れている。
論文 参考訳(メタデータ) (2022-12-10T08:49:19Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Semantic Change Detection with Asymmetric Siamese Networks [71.28665116793138]
2つの空中画像が与えられた場合、セマンティックチェンジ検出は、土地被覆のバリエーションを特定し、それらの変化タイプをピクセルワイド境界で識別することを目的としている。
この問題は、正確な都市計画や天然資源管理など、多くの地球ビジョンに関連するタスクにおいて不可欠である。
本研究では, 広く異なる構造を持つモジュールから得られた特徴対を用いて意味変化を同定し, 同定するための非対称システマネットワーク(ASN)を提案する。
論文 参考訳(メタデータ) (2020-10-12T13:26:30Z) - A Transfer Learning approach to Heatmap Regression for Action Unit
intensity estimation [50.261472059743845]
アクション・ユニット(英: Action Units、AUs)は、幾何学に基づく原子性顔面筋運動である。
本稿では,その位置と強度を共同で推定する新しいAUモデリング問題を提案する。
ヒートマップは、所定の空間的位置でAUが発生するか否かをモデル化する。
論文 参考訳(メタデータ) (2020-04-14T16:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。