論文の概要: Environmental Change Detection: Toward a Practical Task of Scene Change Detection
- arxiv url: http://arxiv.org/abs/2506.11481v1
- Date: Fri, 13 Jun 2025 06:09:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.670323
- Title: Environmental Change Detection: Toward a Practical Task of Scene Change Detection
- Title(参考訳): 環境変化検出:シーン変化検出の実践的課題に向けて
- Authors: Kyusik Cho, Suhan Woo, Hongje Seong, Euntai Kim,
- Abstract要約: 本研究では,空間環境を協調的に理解し,変化を検出する新しい枠組みを提案する。
我々は、複数の参照候補を活用し、変更検出のために意味的にリッチな表現を集約することで、この制限に対処する。
ECDのために再構成された3つの標準ベンチマークセットに対して,本フレームワークの評価を行い,最先端手法の簡単な組み合わせを著しく上回った。
- 参考スコア(独自算出の注目度): 23.79599379113436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans do not memorize everything. Thus, humans recognize scene changes by exploring the past images. However, available past (i.e., reference) images typically represent nearby viewpoints of the present (i.e., query) scene, rather than the identical view. Despite this practical limitation, conventional Scene Change Detection (SCD) has been formalized under an idealized setting in which reference images with matching viewpoints are available for every query. In this paper, we push this problem toward a practical task and introduce Environmental Change Detection (ECD). A key aspect of ECD is to avoid unrealistically aligned query-reference pairs and rely solely on environmental cues. Inspired by real-world practices, we provide these cues through a large-scale database of uncurated images. To address this new task, we propose a novel framework that jointly understands spatial environments and detects changes. The main idea is that matching at the same spatial locations between a query and a reference may lead to a suboptimal solution due to viewpoint misalignment and limited field-of-view (FOV) coverage. We deal with this limitation by leveraging multiple reference candidates and aggregating semantically rich representations for change detection. We evaluate our framework on three standard benchmark sets reconstructed for ECD, and significantly outperform a naive combination of state-of-the-art methods while achieving comparable performance to the oracle setting. The code will be released upon acceptance.
- Abstract(参考訳): 人間はすべてを記憶しない。
したがって、過去の画像を調べることで、人間はシーンの変化を認識する。
しかし、利用可能な過去(つまり参照)のイメージは、通常、同一のビューではなく、現在のシーンの近辺の視点(すなわちクエリ)を表す。
このような現実的な制限にもかかわらず、従来のシーン変化検出(SCD)は、全てのクエリで一致する視点を持つ参照画像が利用できる理想化された設定で形式化されている。
本稿では,この問題を現実的な課題に向け,環境変化検出(ECD)を導入する。
ECDの重要な側面は、非現実的に整合したクエリ参照ペアを回避し、環境にのみ依存することである。
実世界のプラクティスにインスパイアされた私たちは、未修正画像の大規模なデータベースを通じて、これらのキューを提供します。
この課題に対処するために,空間環境を協調的に理解し,変化を検出する新しい枠組みを提案する。
主な考え方は、クエリと参照の同じ空間的位置でのマッチングは、視点的ミスアライメントと限定視野(FOV)カバレッジによって、最適以下の解決につながる可能性があるということである。
我々は、複数の参照候補を活用し、変更検出のために意味的にリッチな表現を集約することで、この制限に対処する。
ECD用に再構成された3つの標準ベンチマークセットについて,本フレームワークの評価を行った。
コードは受理時にリリースされます。
関連論文リスト
- Exploring Generalizable Pre-training for Real-world Change Detection via Geometric Estimation [15.50183955507315]
我々は「MatchCD」と呼ばれる幾何学的推定を伴う自己超越動機付CDフレームワークを提案する。
提案したMatchCDフレームワークは、ゼロショット機能を利用して、自己教師付きコントラスト表現でエンコーダを最適化する。
フルフレームイメージを小さなパッチに分割する必要がある従来の変更検出とは異なり、MatchCDフレームワークはオリジナルの大規模イメージを直接処理できる。
論文 参考訳(メタデータ) (2025-04-19T14:05:39Z) - Show Me What and Where has Changed? Question Answering and Grounding for Remote Sensing Change Detection [82.65760006883248]
我々は,CDQAG (Change Detection Question Answering and Grounding) という新しいタスクを導入する。
CDQAGは、解釈可能なテキスト回答と直感的な視覚的証拠を提供することで、従来の変更検出タスクを拡張している。
QAG-360Kと呼ばれる最初のCDQAGベンチマークデータセットを構築し、360K以上の質問、テキスト回答、およびそれに対応する高品質な視覚マスクを含む。
論文 参考訳(メタデータ) (2024-10-31T11:20:13Z) - Towards Generalizable Scene Change Detection [4.527270266697462]
現在最先端のScene Change Detectionアプローチは、目に見えない環境と異なる時間条件下では信頼性が低い。
本稿では,未確認領域の性能と時間的整合性に対処するため,GeSCF(Generalizable Scene Change Detection Framework)を提案する。
GeSCFは、既存のSCDデータセットで平均19.2%、ChangeVPRデータセットで30.0%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-09-10T04:45:25Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - NovelCraft: A Dataset for Novelty Detection and Discovery in Open Worlds [14.265615838391703]
NovelCraftデータセットには、修正されたMinecraft環境内のpogoスティックアセンブリタスクを完了したエージェントが見るイメージと象徴的な世界状態のエピソードデータが含まれている。
我々のビジュアルノベルティ検出ベンチマークは、一般的な領域内測定値で最上位の手法は、より単純な代替手段により性能が向上する可能性があることを見出した。
さらにマルチモーダルなノベルティ検出実験により、視覚情報とシンボル情報を融合する手法は、検出までの時間と全体的な識別を改善することが示唆された。
論文 参考訳(メタデータ) (2022-06-23T14:31:33Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - VIGOR: Cross-View Image Geo-localization beyond One-to-one Retrieval [19.239311087570318]
クロスビュー画像のジオローカライゼーションは,空中からのGPSタグ付き参照画像とマッチングすることで,ストリートビュー検索画像の位置を決定することを目的としている。
最近の研究は、都市規模データセットの驚くほど高い検索精度を実現している。
我々は,1対1の検索範囲を超えて,画像の地理的局所化を行うための大規模ベンチマークであるVIGORを提案する。
論文 参考訳(メタデータ) (2020-11-24T15:50:54Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。