論文の概要: RCDT: Relational Remote Sensing Change Detection with Transformer
- arxiv url: http://arxiv.org/abs/2212.04869v1
- Date: Fri, 9 Dec 2022 14:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:30:51.996987
- Title: RCDT: Relational Remote Sensing Change Detection with Transformer
- Title(参考訳): rcdt: トランスフォーマによるリレーショナルリモートセンシング変化検出
- Authors: Kaixuan Lu and Xiao Huang
- Abstract要約: Change Detection Transformer (RCDT) は、リモートセンシングによる変更検出タスクのための、新しくてシンプルなフレームワークである。
提案するRCDTは,他の競合手法と比較して優れた変化検出性能を示す。
- 参考スコア(独自算出の注目度): 9.339061781212475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based change detection methods have received wide attentoion,
thanks to their strong capability in obtaining rich features from images.
However, existing AI-based CD methods largely rely on three
functionality-enhancing modules, i.e., semantic enhancement, attention
mechanisms, and correspondence enhancement. The stacking of these modules leads
to great model complexity. To unify these three modules into a simple pipeline,
we introduce Relational Change Detection Transformer (RCDT), a novel and simple
framework for remote sensing change detection tasks. The proposed RCDT consists
of three major components, a weight-sharing Siamese Backbone to obtain
bi-temporal features, a Relational Cross Attention Module (RCAM) that
implements offset cross attention to obtain bi-temporal relation-aware
features, and a Features Constrain Module (FCM) to achieve the final refined
predictions with high-resolution constraints. Extensive experiments on four
different publically available datasets suggest that our proposed RCDT exhibits
superior change detection performance compared with other competing methods.
The therotical, methodogical, and experimental knowledge of this study is
expected to benefit future change detection efforts that involve the cross
attention mechanism.
- Abstract(参考訳): 深層学習に基づく変化検出手法は,画像からリッチな特徴を得ることで,幅広い評価を受けている。
しかし、既存のAIベースのCD手法は、主に3つの機能強化モジュール(セマンティックエンハンスメント、注意機構、対応エンハンスメント)に依存している。
これらのモジュールの積み重ねは、非常に複雑なモデルを生み出す。
これら3つのモジュールを単純なパイプラインに統合するために,リレーショナル・チェンジ検出用トランスフォーマ(RCDT)を導入する。
提案したRCDTは3つの主要コンポーネントから構成されており,両時間的特徴を得るためのウェイトシェアリングのSamese Backbone,両時間的関係を認識するためのオフセットクロスアテンションを実装したRelational Cross Attention Module (RCAM),高精細制約で最終的な洗練された予測を実現するためのFeatures Constrain Module (FCM) から構成されている。
4つの公開データセットに対する大規模な実験により,提案したRCDTは,他の競合手法と比較して優れた変化検出性能を示した。
本研究の理論的,方法論的,実験的知識は,クロスアテンション機構を含む将来の変化検出に有効であることが期待される。
関連論文リスト
- Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - X Modality Assisting RGBT Object Tracking [36.614908357546035]
本稿では,融合パラダイムの影響を光を当てるために,新しいXモダリティ支援ネットワーク(X-Net)を提案する。
RGBと熱モダリティの相違から生じる特徴学習のハードルに対処するために,プラグアンドプレイピクセルレベル生成モジュール(PGM)を提案する。
また,混合特徴量対話変換器と空間次元特徴量変換戦略を組み込んだ特徴量対話モジュール (FIM) を提案する。
論文 参考訳(メタデータ) (2023-12-27T05:38:54Z) - A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection [6.906936669510404]
本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
論文 参考訳(メタデータ) (2023-10-03T08:26:27Z) - Bridging Sensor Gaps via Single-Direction Tuning for Hyperspectral Image
Classification [21.623010413720458]
本稿では,限られたサンプルを持つ新しいHSIデータセットの性能向上のためのブリッジとして機能する単一方向チューニング(SDT)戦略を提案する。
提案したSDTは,並列アーキテクチャ,非同期コールドホット勾配更新戦略,一方向インタラクションを利用する。
異種、あるいはクロスモーダルなデータセットのトレーニングから派生した、強力な表現学習能力をフル活用することを目的としている。
論文 参考訳(メタデータ) (2023-09-22T13:39:24Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Rethinking the Detection Head Configuration for Traffic Object Detection [11.526701794026641]
本稿では,検出ヘッドとオブジェクト分布のマッチングに基づいて,軽量なトラフィックオブジェクト検出ネットワークを提案する。
提案したモデルでは,BDD100Kデータセットと提案したETFOD-v2データセットの他のモデルよりも,より競争力のあるパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-08T02:23:57Z) - MSTR: Multi-Scale Transformer for End-to-End Human-Object Interaction
Detection [21.296007737406494]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)は、画像から人間、オブジェクト、インタラクションのセットを識別するタスクである。
近年の研究では、HOI検出における多くの手設計コンポーネントの必要性を解消するトランスフォーマーエンコーダデコーダアーキテクチャが提案されている。
本稿では,HOI検出用マルチスケールTRansformer (MSTR) を提案する。
論文 参考訳(メタデータ) (2022-03-28T12:58:59Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Transformer-based Network for RGB-D Saliency Detection [82.6665619584628]
RGB-Dサリエンシ検出の鍵は、2つのモードにわたる複数のスケールで情報を完全なマイニングとヒューズすることである。
コンバータは機能融合と機能拡張の両面において高い有効性を示す一様操作であることを示す。
提案するネットワークは,最先端のRGB-D値検出手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-01T15:53:58Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。