論文の概要: PeftCD: Leveraging Vision Foundation Models with Parameter-Efficient Fine-Tuning for Remote Sensing Change Detection
- arxiv url: http://arxiv.org/abs/2509.09572v1
- Date: Thu, 11 Sep 2025 16:08:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.460015
- Title: PeftCD: Leveraging Vision Foundation Models with Parameter-Efficient Fine-Tuning for Remote Sensing Change Detection
- Title(参考訳): PeftCD:リモートセンシング変化検出のためのパラメータ効率の良いファインチューニングを用いた視覚基礎モデルの活用
- Authors: Sijun Dong, Yuxuan Hu, LiBo Wang, Geng Chen, Xiaoliang Meng,
- Abstract要約: PeftCDはVision Foundation Models上に構築された変更検出フレームワークである。
重量共有エンコーダはVFMから派生したもので、LoRAとAdapterモジュールはシームレスに統合される。
複数の公開データセットにまたがって最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 9.241842285556134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To tackle the prevalence of pseudo changes, the scarcity of labeled samples, and the difficulty of cross-domain generalization in multi-temporal and multi-source remote sensing imagery, we propose PeftCD, a change detection framework built upon Vision Foundation Models (VFMs) with Parameter-Efficient Fine-Tuning (PEFT). At its core, PeftCD employs a weight-sharing Siamese encoder derived from a VFM, into which LoRA and Adapter modules are seamlessly integrated. This design enables highly efficient task adaptation by training only a minimal set of additional parameters. To fully unlock the potential of VFMs, we investigate two leading backbones: the Segment Anything Model v2 (SAM2), renowned for its strong segmentation priors, and DINOv3, a state-of-the-art self-supervised representation learner. The framework is complemented by a deliberately lightweight decoder, ensuring the focus remains on the powerful feature representations from the backbones. Extensive experiments demonstrate that PeftCD achieves state-of-the-art performance across multiple public datasets, including SYSU-CD (IoU 73.81%), WHUCD (92.05%), MSRSCD (64.07%), MLCD (76.89%), CDD (97.01%), S2Looking (52.25%) and LEVIR-CD (85.62%), with notably precise boundary delineation and strong suppression of pseudo-changes. In summary, PeftCD presents an optimal balance of accuracy, efficiency, and generalization. It offers a powerful and scalable paradigm for adapting large-scale VFMs to real-world remote sensing change detection applications. The code and pretrained models will be released at https://github.com/dyzy41/PeftCD.
- Abstract(参考訳): 擬似的変化の頻度,ラベル付きサンプルの不足,マルチ時間・マルチソースリモートセンシング画像におけるクロスドメイン一般化の難しさに対処するために,パラメータ効率の良いファインタニング(PEFT)を用いたビジョンファウンデーションモデル(VFM)に基づく変化検出フレームワークであるPeftCDを提案する。
PeftCDのコアとなるのは、VFMから派生した重量共有のSiameseエンコーダで、LoRAとAdapterモジュールはシームレスに統合されている。
この設計により、最小限の追加パラメータのみをトレーニングすることで、タスク適応を効率的に行うことができる。
VFMの可能性をフルに解き放つために、Segment Anything Model v2 (SAM2) と最先端の自己教師型表現学習者 DINOv3 の2つの主要なバックボーンについて検討する。
フレームワークは意図的に軽量なデコーダによって補完され、バックボーンの強力な機能表現に焦点が当てられている。
SYSU-CD (IoU 73.81%)、WHUCD (92.05%)、MSRSCD (64.07%)、MLCD (76.89%)、CDD (97.01%)、S2Looking (52.25%)、LEVIR-CD (85.62%)など、複数の公開データセットで最先端のパフォーマンスが達成されている。
まとめると、PeftCDは精度、効率、一般化の最適なバランスを示す。
大規模なVFMを現実世界のリモートセンシング変更検出アプリケーションに適用するための、強力でスケーラブルなパラダイムを提供する。
コードと事前訓練されたモデルはhttps://github.com/dyzy41/PeftCDでリリースされる。
関連論文リスト
- Adapting SAM via Cross-Entropy Masking for Class Imbalance in Remote Sensing Change Detection [0.0]
基礎モデルはコンピュータビジョンの様々な領域で大きな成功を収めた。
そのような基礎モデルの1つは、イメージ内のオブジェクトを正確にセグメント化できるSegment Any Model (SAM)である。
リモートセンシング変化検出(RSCD)と時空間特徴強調(STFE)とマルチスケールデコーダ融合(MSDF)を用いてSAMエンコーダを微調整し、複数スケールで変化を堅牢に検出することを提案する。
論文 参考訳(メタデータ) (2025-08-14T12:07:20Z) - AuxDet: Auxiliary Metadata Matters for Omni-Domain Infrared Small Target Detection [58.67129770371016]
シーン認識最適化のためのテキストメタデータを組み込むことにより、IRSTDパラダイムを再定義する新しいIRSTDフレームワークを提案する。
AuxDetは最先端の手法を一貫して上回り、堅牢性と正確性を改善する上で補助情報の重要な役割を検証している。
論文 参考訳(メタデータ) (2025-05-21T07:02:05Z) - EfficientCD: A New Strategy For Change Detection Based With Bi-temporal Layers Exchanged [3.3885253104046993]
本稿では,リモートセンシング画像変化検出のためのEfficientCDという新しいディープラーニングフレームワークを提案する。
このフレームワークは機能抽出のバックボーンネットワークとしてEfficientNetを使用している。
EfficientCDは4つのリモートセンシングデータセットで実験的に検証されている。
論文 参考訳(メタデータ) (2024-07-22T19:11:50Z) - Adapter-X: A Novel General Parameter-Efficient Fine-Tuning Framework for Vision [52.80792724919329]
本稿では,2次元画像と3次元点雲の微調整を改善するためのAdapter-Xという新しいフレームワークを提案する。
2D画像と3Dポイントの雲のモードで完全な微調整をし、パラメータが大幅に少ない、すなわち2Dと3Dの分類タスクにおいて、オリジナルのトレーニング可能なパラメータのわずか0.20%と1.88%で、初めて性能を上回った。
論文 参考訳(メタデータ) (2024-06-05T08:26:44Z) - Siamese Meets Diffusion Network: SMDNet for Enhanced Change Detection in
High-Resolution RS Imagery [7.767708235606408]
我々は,新しいネットワークであるSiamese-U2Net Feature Differential Meets Network (SMDNet)を提案する。
このネットワークは、画像エッジ変化検出の精度を向上させるために、Siam-U2Net Feature Differential (SU-FDE)とデノイング拡散暗黙モデルを組み合わせる。
特徴抽出モデルと拡散モデルを組み合わせることで,リモートセンシング画像における変化検出の有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T16:48:55Z) - Segment Change Model (SCM) for Unsupervised Change detection in VHR Remote Sensing Images: a Case Study of Buildings [24.520190873711766]
セグメント変更モデル(SCM)と呼ばれる教師なし変更検出(CD)手法を提案する。
提案手法は,異なるスケールで抽出した特徴を再検討し,それらをトップダウンで統合し,識別的変化エッジを強化する。
論文 参考訳(メタデータ) (2023-12-27T04:47:03Z) - FM-ViT: Flexible Modal Vision Transformers for Face Anti-Spoofing [88.6654909354382]
本稿では,顔のアンチ・スプーフィングのためのフレキシブル・モーダル・ビジョン・トランス (FM-ViT) と呼ばれる,純粋なトランスフォーマーベースのフレームワークを提案する。
FM-ViTは、利用可能なマルチモーダルデータの助けを借りて、任意の単一モーダル(すなわちRGB)攻撃シナリオを柔軟にターゲットすることができる。
実験により、FM-ViTに基づいてトレーニングされた単一モデルは、異なるモーダルサンプルを柔軟に評価できるだけでなく、既存のシングルモーダルフレームワークよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-05-05T04:28:48Z) - Deep Metric Learning for Unsupervised Remote Sensing Change Detection [60.89777029184023]
リモートセンシング変化検出(RS-CD)は、マルチテンポラルリモートセンシング画像(MT-RSI)から関連する変化を検出することを目的とする。
既存のRS-CD法の性能は、大規模な注釈付きデータセットのトレーニングによるものである。
本稿では,これらの問題に対処可能なディープメトリック学習に基づく教師なしCD手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:52:45Z) - Searching Central Difference Convolutional Networks for Face
Anti-Spoofing [68.77468465774267]
顔認識システムにおいて、顔の反偽造(FAS)が重要な役割を担っている。
最先端のFASメソッドの多くは、スタック化された畳み込みと専門家が設計したネットワークに依存している。
ここでは、中央差分畳み込み(CDC)に基づくフレームレベルの新しいFAS手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。