論文の概要: A3CLNN: Spatial, Spectral and Multiscale Attention ConvLSTM Neural
Network for Multisource Remote Sensing Data Classification
- arxiv url: http://arxiv.org/abs/2204.04462v1
- Date: Sat, 9 Apr 2022 12:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 17:43:06.837429
- Title: A3CLNN: Spatial, Spectral and Multiscale Attention ConvLSTM Neural
Network for Multisource Remote Sensing Data Classification
- Title(参考訳): A3CLNN:マルチソースリモートセンシングデータ分類のための空間,スペクトル,マルチスケールアテンション ConvLSTM ニューラルネットワーク
- Authors: Heng-Chao Li, Wen-Shuai Hu, Wei Li, Jun Li, Qian Du, and Antonio Plaza
- Abstract要約: 本稿では,ハイパースペクトル画像(HSI)と光検出・測光(LiDAR)の2つのデータソースを補完する手法を提案する。
我々は,特徴抽出と分類のための2チャネル空間,スペクトル,マルチスケールの長期記憶ニューラルネットワーク(デュアルチャネルA3CLNN)を開発した。
- 参考スコア(独自算出の注目度): 24.006660419933727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of effectively exploiting the information multiple data sources
has become a relevant but challenging research topic in remote sensing. In this
paper, we propose a new approach to exploit the complementarity of two data
sources: hyperspectral images (HSIs) and light detection and ranging (LiDAR)
data. Specifically, we develop a new dual-channel spatial, spectral and
multiscale attention convolutional long short-term memory neural network
(called dual-channel A3CLNN) for feature extraction and classification of
multisource remote sensing data. Spatial, spectral and multiscale attention
mechanisms are first designed for HSI and LiDAR data in order to learn
spectral- and spatial-enhanced feature representations, and to represent
multiscale information for different classes. In the designed fusion network, a
novel composite attention learning mechanism (combined with a three-level
fusion strategy) is used to fully integrate the features in these two data
sources. Finally, inspired by the idea of transfer learning, a novel stepwise
training strategy is designed to yield a final classification result. Our
experimental results, conducted on several multisource remote sensing data
sets, demonstrate that the newly proposed dual-channel A3CLNN exhibits better
feature representation ability (leading to more competitive classification
performance) than other state-of-the-art methods.
- Abstract(参考訳): 複数のデータソースを効果的に活用する問題は、リモートセンシングにおける関連するが困難な研究課題となっている。
本稿では,高スペクトル画像(HSI)と光検出・測光(LiDAR)という2つのデータソースの相補性を利用する新しい手法を提案する。
具体的には、マルチソースリモートセンシングデータの特徴抽出と分類を行うために、新しいデュアルチャネル空間、スペクトル、マルチスケールアテンション畳み込み長短期記憶ニューラルネットワーク(デュアルチャネルA3CLNN)を開発した。
空間的, スペクトル的, マルチスケールなアテンション機構は, HSI と LiDAR のデータに対して, スペクトル的, 空間的特徴表現を学習し, 異なるクラスのマルチスケール情報を表現するために設計されている。
設計した融合ネットワークでは、これら2つのデータソースの機能を完全に統合するために、新しい複合注意学習機構(3レベル融合戦略と組み合わせた)が使用される。
最後に、転校学習のアイデアに触発されて、新しい段階的トレーニング戦略が最終的な分類結果を得るように設計されている。
複数のマルチソースリモートセンシングデータセットを用いた実験により,新たに提案するデュアルチャネルa3clnnが,他の最先端手法よりも優れた特徴表現能力(より競争力の高い分類性能に導かれる)を示すことを示した。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Hierarchical Attention and Parallel Filter Fusion Network for Multi-Source Data Classification [33.26466989592473]
マルチソースデータ分類のための階層的注意と並列フィルタ融合ネットワークを提案する。
提案手法は,各データセットの総合精度(OA)の91.44%と80.51%を達成する。
論文 参考訳(メタデータ) (2024-08-22T23:14:22Z) - CMTNet: Convolutional Meets Transformer Network for Hyperspectral Images Classification [3.821081081400729]
現在の畳み込みニューラルネットワーク(CNN)は、ハイパースペクトルデータの局所的な特徴に焦点を当てている。
Transformerフレームワークは、ハイパースペクトル画像からグローバルな特徴を抽出する。
本研究は、CMTNet(Convolutional Meet Transformer Network)を紹介する。
論文 参考訳(メタデータ) (2024-06-20T07:56:51Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - General-Purpose Multimodal Transformer meets Remote Sensing Semantic
Segmentation [35.100738362291416]
マルチモーダルAIは、特にセマンティックセグメンテーションのような複雑なタスクのために、補完的なデータソースを活用する。
汎用マルチモーダルネットワークの最近のトレンドは、最先端の性能を達成する大きな可能性を示している。
本稿では,3次元畳み込みを利用して重要なローカル情報をエンコードし,同時にモーダルな特徴を学習するUNet型モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-07T04:58:34Z) - Learning Synergistic Attention for Light Field Salient Object Detection [20.53608130346838]
本稿では,光電界サルエント物体検出のための新しいシナジスティックアテンションネットワーク(sa-net)を提案する。
私たちのsa-netは、3次元畳み込みニューラルネットワークによる焦点スタックの豊富な情報を活用し、マルチモーダル光フィールドデータの高レベルな特徴をデコードし、サリエンシーマップを予測する。
論文 参考訳(メタデータ) (2021-04-28T17:56:04Z) - Spectral Analysis Network for Deep Representation Learning and Image
Clustering [53.415803942270685]
本稿ではスペクトル分析に基づく教師なし深層表現学習のための新しいネットワーク構造を提案する。
パッチレベルで画像間の局所的な類似性を識別できるため、閉塞に対してより堅牢である。
クラスタリングに親しみやすい表現を学習し、データサンプル間の深い相関を明らかにすることができる。
論文 参考訳(メタデータ) (2020-09-11T05:07:15Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。