論文の概要: The Change You Want to See
- arxiv url: http://arxiv.org/abs/2209.14341v1
- Date: Wed, 28 Sep 2022 18:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:11:37.828635
- Title: The Change You Want to See
- Title(参考訳): 見たい変化は
- Authors: Ragav Sachdeva, Andrew Zisserman
- Abstract要約: 同じシーンの2つのイメージが与えられた場合、その変更を自動的に検出できることは、様々な領域で実用的応用をもたらす。
画像対の「オブジェクトレベル」変化を、視点や照明の違いにかかわらず検出することを目的として、変化検出問題に取り組む。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We live in a dynamic world where things change all the time. Given two images
of the same scene, being able to automatically detect the changes in them has
practical applications in a variety of domains. In this paper, we tackle the
change detection problem with the goal of detecting "object-level" changes in
an image pair despite differences in their viewpoint and illumination. To this
end, we make the following four contributions: (i) we propose a scalable
methodology for obtaining a large-scale change detection training dataset by
leveraging existing object segmentation benchmarks; (ii) we introduce a
co-attention based novel architecture that is able to implicitly determine
correspondences between an image pair and find changes in the form of bounding
box predictions; (iii) we contribute four evaluation datasets that cover a
variety of domains and transformations, including synthetic image changes, real
surveillance images of a 3D scene, and synthetic 3D scenes with camera motion;
(iv) we evaluate our model on these four datasets and demonstrate zero-shot and
beyond training transformation generalization.
- Abstract(参考訳): 私たちは常に変化する動的な世界に住んでいる。
同じシーンの2つのイメージが与えられると、その変更を自動的に検出できるため、さまざまなドメインで実用的利用が可能になる。
本稿では,視点や照明の違いにかかわらず,画像対の「対象レベル」変化を検出することを目的として,変化検出問題に取り組む。
この目的のために、私たちは以下の4つの貢献をします。
i)既存のオブジェクトセグメンテーションベンチマークを利用して大規模変更検出訓練データセットを得るためのスケーラブルな手法を提案する。
(II)画像ペア間の対応を暗黙的に決定し,境界ボックス予測の形式で変化を見出すことのできる,コアテンションに基づく新しいアーキテクチャを導入する。
3) 合成画像の変化, 3Dシーンの実際の監視画像, カメラモーションによる合成3Dシーンを含む, さまざまな領域と変換をカバーする4つの評価データセットをコントリビュートする。
(iv)これら4つのデータセット上でモデルを評価し,ゼロショットおよびトレーニング変換一般化を超えて実演する。
関連論文リスト
- Robust Scene Change Detection Using Visual Foundation Models and Cross-Attention Mechanisms [27.882122236282054]
本稿では,視覚基礎モデルDINOv2の頑健な特徴抽出機能を活用したシーン変化検出手法を提案する。
我々は,VL-CMU-CDとPSCDの2つのベンチマークデータセットに対するアプローチと,その視点評価バージョンについて検討した。
実験では,F1スコアにおいて,特に画像ペア間の幾何学的変化を伴うシナリオにおいて,顕著な改善が示された。
論文 参考訳(メタデータ) (2024-09-25T11:55:27Z) - Zero-Shot Scene Change Detection [14.095215136905553]
本手法は,連続するフレームの代わりに参照画像とクエリ画像を入力することで,追跡モデルの変化検出効果を利用する。
我々は、映像へのアプローチを拡張して、リッチな時間情報を活用し、シーン変化検出性能を向上させる。
論文 参考訳(メタデータ) (2024-06-17T05:03:44Z) - Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - ObjectCompose: Evaluating Resilience of Vision-Based Models on Object-to-Background Compositional Changes [64.57705752579207]
本研究では,視覚モデルによる多様な背景背景環境に対するレジリエンスを評価する。
我々は、画像から画像への変換、画像から画像への変換、および画像から画像への変換モデルの生成機能を利用して、オブジェクトから背景への変換を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-07T17:48:48Z) - Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - Supervising Remote Sensing Change Detection Models with 3D Surface
Semantics [1.8782750537161614]
光RGBと地上レベル(AGL)マップペアを用いた共同学習のためのコントラスト表面画像事前学習(CSIP)を提案する。
次に、これらの事前訓練されたモデルをいくつかの建物セグメンテーションおよび変更検出データセット上で評価し、実際に、下流アプリケーションに関連する特徴を抽出することを示す。
論文 参考訳(メタデータ) (2022-02-26T23:35:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。