論文の概要: Leveraging Geometric Priors for Unaligned Scene Change Detection
- arxiv url: http://arxiv.org/abs/2509.11292v2
- Date: Tue, 16 Sep 2025 06:25:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 11:35:27.004546
- Title: Leveraging Geometric Priors for Unaligned Scene Change Detection
- Title(参考訳): 不整合環境変化検出のための幾何学的事前手法の活用
- Authors: Ziling Liu, Ziwei Chen, Mingqi Gao, Jinyu Yang, Feng Zheng,
- Abstract要約: Unaligned Scene Change Detectionは、視点アライメントを仮定することなく、異なるタイミングでキャプチャされた画像ペア間のシーン変化を検出することを目的としている。
非整合SCDの中核的課題に対処するために、初めて幾何学的事前を導入する。
視覚基盤モデルの強力な表現とそれらを統合した学習自由フレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.523333385654546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unaligned Scene Change Detection aims to detect scene changes between image pairs captured at different times without assuming viewpoint alignment. To handle viewpoint variations, current methods rely solely on 2D visual cues to establish cross-image correspondence to assist change detection. However, large viewpoint changes can alter visual observations, causing appearance-based matching to drift or fail. Additionally, supervision limited to 2D change masks from small-scale SCD datasets restricts the learning of generalizable multi-view knowledge, making it difficult to reliably identify visual overlaps and handle occlusions. This lack of explicit geometric reasoning represents a critical yet overlooked limitation. In this work, we introduce geometric priors for the first time to address the core challenges of unaligned SCD, for reliable identification of visual overlaps, robust correspondence establishment, and explicit occlusion detection. Building on these priors, we propose a training-free framework that integrates them with the powerful representations of a visual foundation model to enable reliable change detection under viewpoint misalignment. Through extensive evaluation on the PSCD, ChangeSim, and PASLCD datasets, we demonstrate that our approach achieves superior and robust performance. Our code will be released at https://github.com/ZilingLiu/GeoSCD.
- Abstract(参考訳): Unaligned Scene Change Detectionは、視点アライメントを仮定することなく、異なるタイミングでキャプチャされた画像ペア間のシーン変化を検出することを目的としている。
視点変化に対処するため、現在の手法は2次元視覚的手がかりのみに頼り、画像横断対応を確立し、変化検出を支援する。
しかし、大きな視点の変化は視覚的な観察を変え、外見に基づくマッチングがドリフトまたは失敗する原因となる。
さらに、小規模SCDデータセットからの2次元変化マスクに制限された監督は、一般化可能な多視点知識の学習を制限するため、視覚的重複を確実に識別し、オクルージョンを処理することは困難である。
この明示的な幾何学的推論の欠如は、批判的ではあるが見過ごされた限界を表している。
本研究では,不整合SCDの中核的課題に対処するために,視覚的重なりの信頼性,頑健な対応確立,明示的閉塞検出などの幾何学的先行性を導入する。
これらの前提に基づいて,視覚基盤モデルの強力な表現と統合した学習自由フレームワークを提案する。
また,PSCD,ChangeSim,PASLCDデータセットの広範な評価を通じて,本手法が優れた,堅牢な性能を実現することを示す。
私たちのコードはhttps://github.com/ZilingLiu/GeoSCDでリリースされます。
関連論文リスト
- Exploring Generalizable Pre-training for Real-world Change Detection via Geometric Estimation [15.50183955507315]
我々は「MatchCD」と呼ばれる幾何学的推定を伴う自己超越動機付CDフレームワークを提案する。
提案したMatchCDフレームワークは、ゼロショット機能を利用して、自己教師付きコントラスト表現でエンコーダを最適化する。
フルフレームイメージを小さなパッチに分割する必要がある従来の変更検出とは異なり、MatchCDフレームワークはオリジナルの大規模イメージを直接処理できる。
論文 参考訳(メタデータ) (2025-04-19T14:05:39Z) - SChanger: Change Detection from a Semantic Change and Spatial Consistency Perspective [0.6749750044497732]
我々は,データ不足問題に対処するため,セマンティック・チェンジ・ネットワーク(SCN)と呼ばれる微調整戦略を開発した。
両画像間の変化位置は空間的に同一であり,空間的整合性(空間的整合性)の概念である。
これにより、マルチスケールな変更のモデリングが強化され、変更検出セマンティクスの基盤となる関係を捉えるのに役立ちます。
論文 参考訳(メタデータ) (2025-03-26T17:15:43Z) - Detect Changes like Humans: Incorporating Semantic Priors for Improved Change Detection [52.62459671461816]
本稿では,視覚基盤モデルからのセマンティックな先入観を取り入れ,変化を検出する能力の向上について検討する。
人間の視覚パラダイムにインスパイアされた新しいデュアルストリーム特徴デコーダは、意味認識特徴と差認識特徴を組み合わせることで変化を区別するために導出される。
論文 参考訳(メタデータ) (2024-12-22T08:27:15Z) - Robust Scene Change Detection Using Visual Foundation Models and Cross-Attention Mechanisms [27.882122236282054]
本稿では,視覚基礎モデルDINOv2の頑健な特徴抽出機能を活用したシーン変化検出手法を提案する。
我々は,VL-CMU-CDとPSCDの2つのベンチマークデータセットに対するアプローチと,その視点評価バージョンについて検討した。
実験では,F1スコアにおいて,特に画像ペア間の幾何学的変化を伴うシナリオにおいて,顕著な改善が示された。
論文 参考訳(メタデータ) (2024-09-25T11:55:27Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。