論文の概要: Semantic Change Pattern Analysis
- arxiv url: http://arxiv.org/abs/2003.03492v1
- Date: Sat, 7 Mar 2020 02:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 19:22:46.346200
- Title: Semantic Change Pattern Analysis
- Title(参考訳): 意味的変化パターン解析
- Authors: Wensheng Cheng, Yan Zhang, Xu Lei, Wen Yang, Guisong Xia
- Abstract要約: 本研究では,航空画像に対する意味変化パターン解析という新しい課題を提案する。
共同登録された空中画像のペアが与えられた場合、そのタスクは、場所と変更点の両方を含む結果を必要とする。
本研究は,この課題のための航空画像データセットとして初めて得られたものである。
- 参考スコア(独自算出の注目度): 31.829389559219276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection is an important problem in vision field, especially for
aerial images. However, most works focus on traditional change detection, i.e.,
where changes happen, without considering the change type information, i.e.,
what changes happen. Although a few works have tried to apply semantic
information to traditional change detection, they either only give the label of
emerging objects without taking the change type into consideration, or set some
kinds of change subjectively without specifying semantic information. To make
use of semantic information and analyze change types comprehensively, we
propose a new task called semantic change pattern analysis for aerial images.
Given a pair of co-registered aerial images, the task requires a result
including both where and what changes happen. We then describe the metric
adopted for the task, which is clean and interpretable. We further provide the
first well-annotated aerial image dataset for this task. Extensive baseline
experiments are conducted as reference for following works. The aim of this
work is to explore high-level information based on change detection and
facilitate the development of this field with the publicly available dataset.
- Abstract(参考訳): 変化検出は視覚分野、特に空中画像において重要な問題である。
しかしながら、ほとんどの研究は、従来の変更検出、すなわち、変更がどこで起こるか、変更タイプ情報、すなわち、何が起こるかを考えることなく、焦点を当てている。
従来の変更検出にセマンティック情報を適用する試みはいくつかあるが、変更タイプを考慮せずに新興オブジェクトのラベルを付けるか、意味情報を指定することなく主観的に何らかの変更を設定するかのどちらかである。
意味的情報と変化の種類を総合的に分析するために,航空画像に対する意味的変化パターン分析という新しいタスクを提案する。
共同登録された空中画像のペアが与えられた場合、そのタスクは、場所と変更点の両方を含む結果を必要とする。
次に、タスクに採用されたメトリクスを説明します。
また,この課題に対して,最初に注釈付き空中画像データセットを提供する。
広範なベースライン実験は、以下の研究の参考として実施されている。
本研究の目的は,変化検出に基づく高レベル情報を探究し,公開データセットを用いてこの分野の開発を促進することである。
関連論文リスト
- Show Me What and Where has Changed? Question Answering and Grounding for Remote Sensing Change Detection [82.65760006883248]
我々は,CDQAG (Change Detection Question Answering and Grounding) という新しいタスクを導入する。
CDQAGは、解釈可能なテキスト回答と直感的な視覚的証拠を提供することで、従来の変更検出タスクを拡張している。
QAG-360Kと呼ばれる最初のCDQAGベンチマークデータセットを構築し、360K以上の質問、テキスト回答、およびそれに対応する高品質な視覚マスクを含む。
論文 参考訳(メタデータ) (2024-10-31T11:20:13Z) - Segment Any Change [64.23961453159454]
本稿では、ゼロショット予測と、見えない変更タイプやデータ分布の一般化をサポートする新しいタイプの変更検出モデルを提案する。
AnyChangeは、トレーニング不要適応法、バイテンポラルラテントマッチングを通じてSAM(Se segment Any Model)上に構築されます。
また、AnyChangeのゼロショットオブジェクト中心の変更検出機能を有効にするためのポイントクエリ機構を提案する。
論文 参考訳(メタデータ) (2024-02-02T07:17:39Z) - MS-Former: Memory-Supported Transformer for Weakly Supervised Change
Detection with Patch-Level Annotations [50.79913333804232]
弱い教師付き変化検出のためのメモリ支援トランス (MS-Former) を提案する。
MS-Former は双方向注意ブロック (BAB) とパッチレベルの監視スキーム (PSS) から構成される。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-16T09:57:29Z) - VcT: Visual change Transformer for Remote Sensing Image Change Detection [16.778418602705287]
本稿では,視覚変化検出問題に対する新しい視覚変化変換器(VcT)モデルを提案する。
トップKの信頼できるトークンは、クラスタリングアルゴリズムを使用してマップからマイニングし、洗練することができる。
複数のベンチマークデータセットに対する大規模な実験により,提案したVcTモデルの有効性が検証された。
論文 参考訳(メタデータ) (2023-10-17T17:25:31Z) - Substance or Style: What Does Your Image Embedding Know? [55.676463077772866]
画像基盤モデルは、主にセマンティックコンテンツとして評価されている。
画像のスタイル,品質,自然および人工的な変換など,多数の軸に沿った埋め込みの視覚的内容を測定する。
画像テキストモデル (CLIP と ALIGN) はマスキングベースモデル (CAN と MAE) よりもスタイル転送の新しい例を認識するのが得意である。
論文 参考訳(メタデータ) (2023-07-10T22:40:10Z) - MapFormer: Boosting Change Detection by Using Pre-change Information [2.436285270638041]
地表面の特徴を記述した既存の地図を両時間画像の変化検出に活用する。
潜在表現の連結による付加情報の簡易な統合は、最先端の変更検出方法よりもはるかに優れていることを示す。
提案手法は,DynamicEarthNet と HRSCD のバイナリ変更 IoU において,絶対 11.7% と 18.4% で既存の変更検出手法より優れている。
論文 参考訳(メタデータ) (2023-03-31T07:39:12Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - Self-Pair: Synthesizing Changes from Single Source for Object Change
Detection in Remote Sensing Imagery [6.586756080460231]
本研究では,2つの空間的無関係な画像を用いて変化検出器をトレーニングする。
本稿では,画像の残像としての操作が,変化検出の性能に不可欠であることを示す。
本手法は, 単一時間監視に基づく既存手法よりも優れる。
論文 参考訳(メタデータ) (2022-12-20T13:26:42Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - Finding It at Another Side: A Viewpoint-Adapted Matching Encoder for
Change Captioning [41.044241265804125]
本稿では,変化字幕タスクにおける意味的変化と視点的変化を明確に区別する新しいビジュアルエンコーダを提案する。
また,言語評価報酬を直接微調整する新たな強化学習手法を提案する。
提案手法は,Spot-the-DiffデータセットとCLEVR-Changeデータセットの両方において,最先端のアプローチよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-09-30T00:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。