論文の概要: RCDT: Relational Remote Sensing Change Detection with Transformer
- arxiv url: http://arxiv.org/abs/2212.04869v1
- Date: Fri, 9 Dec 2022 14:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:30:51.996987
- Title: RCDT: Relational Remote Sensing Change Detection with Transformer
- Title(参考訳): rcdt: トランスフォーマによるリレーショナルリモートセンシング変化検出
- Authors: Kaixuan Lu and Xiao Huang
- Abstract要約: Change Detection Transformer (RCDT) は、リモートセンシングによる変更検出タスクのための、新しくてシンプルなフレームワークである。
提案するRCDTは,他の競合手法と比較して優れた変化検出性能を示す。
- 参考スコア(独自算出の注目度): 9.339061781212475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based change detection methods have received wide attentoion,
thanks to their strong capability in obtaining rich features from images.
However, existing AI-based CD methods largely rely on three
functionality-enhancing modules, i.e., semantic enhancement, attention
mechanisms, and correspondence enhancement. The stacking of these modules leads
to great model complexity. To unify these three modules into a simple pipeline,
we introduce Relational Change Detection Transformer (RCDT), a novel and simple
framework for remote sensing change detection tasks. The proposed RCDT consists
of three major components, a weight-sharing Siamese Backbone to obtain
bi-temporal features, a Relational Cross Attention Module (RCAM) that
implements offset cross attention to obtain bi-temporal relation-aware
features, and a Features Constrain Module (FCM) to achieve the final refined
predictions with high-resolution constraints. Extensive experiments on four
different publically available datasets suggest that our proposed RCDT exhibits
superior change detection performance compared with other competing methods.
The therotical, methodogical, and experimental knowledge of this study is
expected to benefit future change detection efforts that involve the cross
attention mechanism.
- Abstract(参考訳): 深層学習に基づく変化検出手法は,画像からリッチな特徴を得ることで,幅広い評価を受けている。
しかし、既存のAIベースのCD手法は、主に3つの機能強化モジュール(セマンティックエンハンスメント、注意機構、対応エンハンスメント)に依存している。
これらのモジュールの積み重ねは、非常に複雑なモデルを生み出す。
これら3つのモジュールを単純なパイプラインに統合するために,リレーショナル・チェンジ検出用トランスフォーマ(RCDT)を導入する。
提案したRCDTは3つの主要コンポーネントから構成されており,両時間的特徴を得るためのウェイトシェアリングのSamese Backbone,両時間的関係を認識するためのオフセットクロスアテンションを実装したRelational Cross Attention Module (RCAM),高精細制約で最終的な洗練された予測を実現するためのFeatures Constrain Module (FCM) から構成されている。
4つの公開データセットに対する大規模な実験により,提案したRCDTは,他の競合手法と比較して優れた変化検出性能を示した。
本研究の理論的,方法論的,実験的知識は,クロスアテンション機構を含む将来の変化検出に有効であることが期待される。
関連論文リスト
- Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - Relating CNN-Transformer Fusion Network for Change Detection [23.025190360146635]
RCTNetは、空間的特徴と時間的特徴の両方を利用する早期融合バックボーンを導入した。
実験では、従来のRS画像CD法よりもRCTNetの方が明らかに優れていることを示した。
論文 参考訳(メタデータ) (2024-07-03T14:58:40Z) - Revolutionizing Traffic Sign Recognition: Unveiling the Potential of Vision Transformers [0.0]
交通信号認識(TSR)は、運転支援システムや自動運転車において重要な役割を担っている。
本研究では、ベースラインモデルとしてビジョントランスフォーマー(PVT、TNT、LNL)と6つの畳み込みニューラルネットワーク(AlexNet、ResNet、VGG16、MobileNet、EfficientNet、GoogleNet)を探索する。
従来の手法の欠点に対処するため、新しいピラミッドEATFormerバックボーンを提案し、進化的アルゴリズム(EA)とTransformerアーキテクチャを組み合わせる。
論文 参考訳(メタデータ) (2024-04-29T19:18:52Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - X Modality Assisting RGBT Object Tracking [36.614908357546035]
本稿では,融合パラダイムの影響を光を当てるために,新しいXモダリティ支援ネットワーク(X-Net)を提案する。
RGBと熱モダリティの相違から生じる特徴学習のハードルに対処するために,プラグアンドプレイピクセルレベル生成モジュール(PGM)を提案する。
また,混合特徴量対話変換器と空間次元特徴量変換戦略を組み込んだ特徴量対話モジュール (FIM) を提案する。
論文 参考訳(メタデータ) (2023-12-27T05:38:54Z) - A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection [6.906936669510404]
本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
論文 参考訳(メタデータ) (2023-10-03T08:26:27Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Rethinking the Detection Head Configuration for Traffic Object Detection [11.526701794026641]
本稿では,検出ヘッドとオブジェクト分布のマッチングに基づいて,軽量なトラフィックオブジェクト検出ネットワークを提案する。
提案したモデルでは,BDD100Kデータセットと提案したETFOD-v2データセットの他のモデルよりも,より競争力のあるパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-08T02:23:57Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。