論文の概要: TINYCD: A (Not So) Deep Learning Model For Change Detection
- arxiv url: http://arxiv.org/abs/2207.13159v1
- Date: Tue, 26 Jul 2022 19:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:17:26.923008
- Title: TINYCD: A (Not So) Deep Learning Model For Change Detection
- Title(参考訳): tinycd: 変更検出のための(そうではない)ディープラーニングモデル
- Authors: Andrea Codegoni, Gabriele Lombardi and Alessandro Ferrari
- Abstract要約: 変化検出(CD)の目的は、同じ領域で発生した変化を異なる時間に撮影された2つの画像を比較して検出することである。
ディープラーニングの分野での最近の進歩により、研究者はこの分野で卓越した成果を得られるようになった。
我々はTinyCDと呼ばれる新しいモデルを提案し、軽量かつ効果的であることを実証した。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The aim of change detection (CD) is to detect changes occurred in the same
area by comparing two images of that place taken at different times. The
challenging part of the CD is to keep track of the changes the user wants to
highlight, such as new buildings, and to ignore changes due to external factors
such as environmental, lighting condition, fog or seasonal changes. Recent
developments in the field of deep learning enabled researchers to achieve
outstanding performance in this area. In particular, different mechanisms of
space-time attention allowed to exploit the spatial features that are extracted
from the models and to correlate them also in a temporal way by exploiting both
the available images. The downside is that the models have become increasingly
complex and large, often unfeasible for edge applications. These are
limitations when the models must be applied to the industrial field or in
applications requiring real-time performances. In this work we propose a novel
model, called TinyCD, demonstrating to be both lightweight and effective, able
to achieve performances comparable or even superior to the current state of the
art with 13-150X fewer parameters. In our approach we have exploited the
importance of low-level features to compare images. To do this, we use only few
backbone blocks. This strategy allow us to keep the number of network
parameters low. To compose the features extracted from the two images, we
introduce a novel, economical in terms of parameters, mixing block capable of
cross correlating features in both space and time domains. Finally, to fully
exploit the information contained in the computed features, we define the
PW-MLP block able to perform a pixel wise classification. Source code, models
and results are available here:
https://github.com/AndreaCodegoni/Tiny_model_4_CD
- Abstract(参考訳): 変化検出(CD)の目的は、同じ領域で起こった変化を異なる時間に行われた2つの画像を比較して検出することである。
cdの難しい部分は、新しい建物のようなユーザーが強調したい変化を追跡し、環境、照明条件、霧、季節変化などの外部要因による変化を無視することである。
ディープラーニングの分野における最近の進歩により、研究者はこの分野で優れたパフォーマンスを達成できた。
特に、時空の注意の異なるメカニズムは、モデルから抽出された空間的特徴を活用でき、また、利用可能な両方の画像を活用することで、時間的にそれらと相関できる。
欠点は、モデルがますます複雑で大きくなり、しばしばエッジアプリケーションでは実現不可能になっていることです。
これらは、モデルが産業分野やリアルタイム性能を必要とするアプリケーションに適用されなければならない場合の制限である。
本研究では,より軽量かつ効果的で,13~150倍のパラメータで現在の技術に匹敵する性能を実現できることを実証するモデルであるtinycdを提案する。
私たちのアプローチでは、画像を比較するために低レベルの機能の重要性を活用しました。
これを行うには、バックボーンブロックをわずかに使用します。
この戦略により、ネットワークパラメータの数を低くすることができる。
この2つの画像から抽出された特徴を合成するために,空間領域と時間領域の両方の特徴を相互に関連付けることのできる混合ブロックを,パラメータの観点から経済的に導入する。
最後に、計算された特徴に含まれる情報を完全に活用するために、画素ワイズ分類が可能なPW-MLPブロックを定義する。
ソースコード、モデル、結果はここで入手できる。 https://github.com/AndreaCodegoni/Tiny_model_4_CD
関連論文リスト
- Changen2: Multi-Temporal Remote Sensing Generative Change Foundation Model [62.337749660637755]
安価で自動的な生成モデルに基づく変更データ生成器を提案する。
Changen2は、自己監督を通じて大規模にトレーニング可能な、生成的な変更基盤モデルである。
得られたモデルには、固有のゼロショット変化検出機能と優れた転送性がある。
論文 参考訳(メタデータ) (2024-06-26T01:03:39Z) - Your Image is My Video: Reshaping the Receptive Field via Image-To-Video Differentiable AutoAugmentation and Fusion [35.88039888482076]
本稿では,ビデオとして処理可能な画像のバリエーションを生成するために,最初の微分可能拡張探索法(DAS)を提案する。
DASは非常に高速で柔軟性があり、GPUの1日以内で非常に大きな検索スペースを検索できる。
DASを利用して、タスク依存変換を選択することにより、空間受容場の再構成を誘導する。
論文 参考訳(メタデータ) (2024-03-22T13:27:57Z) - One-Step Image Translation with Text-to-Image Models [35.0987002313882]
本稿では,新たな課題や領域に一段階拡散モデルを適用するための汎用的手法を提案する。
我々は,バニラ潜在拡散モデルの様々なモジュールを,小さなトレーニング可能な重みを持つ単一エンドツーエンドのジェネレータネットワークに統合する。
我々のモデルであるCycleGAN-Turboは、様々なシーン翻訳タスクにおいて、既存のGANベースおよび拡散ベースの手法より優れています。
論文 参考訳(メタデータ) (2024-03-18T17:59:40Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Cascaded Cross-Attention Networks for Data-Efficient Whole-Slide Image
Classification Using Transformers [0.11219061154635457]
全スライディングイメージングは、組織標本の高解像度画像のキャプチャとデジタル化を可能にする。
高解像度情報を効果的に活用するための候補としてトランスフォーマーアーキテクチャが提案されている。
本稿では,抽出されたパッチ数と線形にスケールするクロスアテンション機構に基づく新しいカスケード型クロスアテンションネットワーク(CCAN)を提案する。
論文 参考訳(メタデータ) (2023-05-11T16:42:24Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Efficient Transformer based Method for Remote Sensing Image Change
Detection [17.553240434628087]
シーン内のオブジェクトの複雑さのため、高解像度なリモートセンシングcdは依然として困難である。
空間時間領域内のコンテキストを効率的に効果的にモデル化するためのバイテンポラル画像変換器(BiT)を提案する。
BiTベースのモデルは、計算コストとモデルパラメータのわずか3倍のコストで純粋に畳み込みベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-02-27T13:08:46Z) - Looking for change? Roll the Dice and demand Attention [0.0]
高解像度空中画像における意味変化検出のための信頼性の高いディープラーニングフレームワークを提案する。
我々のフレームワークは、新しいロス関数、新しいアテンションモジュール、新しい機能抽出ビルディングブロック、新しいバックボーンアーキテクチャで構成されています。
我々は,2つの建物変更検出データセットに対して,優れた性能を示すとともに,美術スコア(F1とIoUに対するインターセクション)の達成状況を示すことによって,我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-09-04T08:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。