論文の概要: CLAReSNet: When Convolution Meets Latent Attention for Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2511.12346v1
- Date: Sat, 15 Nov 2025 20:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.982338
- Title: CLAReSNet: When Convolution Meets Latent Attention for Hyperspectral Image Classification
- Title(参考訳): CLAReSNet: ハイパースペクトル画像分類における遅延注意と畳み込み
- Authors: Asmit Bandyopadhyay, Anindita Das Bhattacharjee, Rakesh Das,
- Abstract要約: CLAReSNetは、マルチスケールの畳み込み抽出と、適応的な潜在ボトルネックによるトランスフォーマースタイルの注意を統合するハイブリッドアーキテクチャである。
インド・パインズとサリナスのデータセットで実施された実験は、最先端のパフォーマンスを示し、全体の精度は99.71%と99.96%である。
- 参考スコア(独自算出の注目度): 20.37811669228711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperspectral image (HSI) classification faces critical challenges, including high spectral dimensionality, complex spectral-spatial correlations, and limited training samples with severe class imbalance. While CNNs excel at local feature extraction and transformers capture long-range dependencies, their isolated application yields suboptimal results due to quadratic complexity and insufficient inductive biases. We propose CLAReSNet (Convolutional Latent Attention Residual Spectral Network), a hybrid architecture that integrates multi-scale convolutional extraction with transformer-style attention via an adaptive latent bottleneck. The model employs a multi-scale convolutional stem with deep residual blocks and an enhanced Convolutional Block Attention Module for hierarchical spatial features, followed by spectral encoder layers combining bidirectional RNNs (LSTM/GRU) with Multi-Scale Spectral Latent Attention (MSLA). MSLA reduces complexity from $\mathcal{O}(T^2D)$ to $\mathcal{O}(T\log(T)D)$ by adaptive latent token allocation (8-64 tokens) that scales logarithmically with the sequence length. Hierarchical cross-attention fusion dynamically aggregates multi-level representations for robust classification. Experiments conducted on the Indian Pines and Salinas datasets show state-of-the-art performance, achieving overall accuracies of 99.71% and 99.96%, significantly surpassing HybridSN, SSRN, and SpectralFormer. The learned embeddings exhibit superior inter-class separability and compact intra-class clustering, validating CLAReSNet's effectiveness under limited samples and severe class imbalance.
- Abstract(参考訳): ハイパースペクトル画像(HSI)分類は、高スペクトル次元、複雑なスペクトル-空間相関、厳密なクラス不均衡を持つ限られたトレーニングサンプルなど、重要な課題に直面している。
CNNは局所的な特徴抽出やトランスフォーマーで優れているが、その分離されたアプリケーションは二次的な複雑さと帰納バイアスが不十分なため、最適以下の結果が得られる。
我々はCLAReSNet(Convolutional Latent Attention Residual Spectral Network)を提案する。
このモデルは、深い残留ブロックを持つマルチスケールの畳み込みステムと、階層的な空間特徴のための拡張畳み込みブロックアテンションモジュールを使用し、続いて、双方向RNN(LSTM/GRU)とマルチスケールスペクトル遅延アテンション(MSLA)を組み合わせたスペクトルエンコーダ層を用いる。
MSLA の複雑性は $\mathcal{O}(T^2D)$ から $\mathcal{O}(T\log(T)D)$ に減少する。
階層的クロスアテンション融合は、ロバストな分類のためのマルチレベル表現を動的に集約する。
インド・パインズとサリナスのデータセットで実施された実験は最先端のパフォーマンスを示し、総合的な精度は99.71%と99.96%で、ハイブリッドSN、SSRN、SpectralFormerを大きく上回っている。
学習した埋め込みは、クラス間分離性とコンパクトなクラスタリングを示し、CLAReSNetの有効性を限られたサンプルで検証し、厳密なクラス不均衡を示す。
関連論文リスト
- Spatial-Spectral Binarized Neural Network for Panchromatic and Multi-spectral Images Fusion [25.15016853820625]
ディープラーニングモデルは優れたパフォーマンスを達成したが、しばしば計算の複雑さが伴う。
本稿では,2次ニューラルネットワーク(BNN)をパンシャーピングに適用する可能性について検討する。
一連のS2B-Convは、S2BNetと呼ばれるパンシャーピングのための新しいバイナリネットワークを形成する。
論文 参考訳(メタデータ) (2025-09-27T14:10:51Z) - CMTNet: Convolutional Meets Transformer Network for Hyperspectral Images Classification [3.821081081400729]
現在の畳み込みニューラルネットワーク(CNN)は、ハイパースペクトルデータの局所的な特徴に焦点を当てている。
Transformerフレームワークは、ハイパースペクトル画像からグローバルな特徴を抽出する。
本研究は、CMTNet(Convolutional Meet Transformer Network)を紹介する。
論文 参考訳(メタデータ) (2024-06-20T07:56:51Z) - SpectralMamba: Efficient Mamba for Hyperspectral Image Classification [39.18999103115206]
リカレントニューラルネットワークとトランスフォーマーは、ハイパースペクトル(HS)イメージングにおけるほとんどの応用を支配している。
我々は、HS画像分類のための効率的なディープラーニングフレームワークを組み込んだ新しい状態空間モデルであるSpectralMambaを提案する。
SpectralMambaは、パフォーマンスと効率の両面から、驚くほど有望な勝利を生み出している。
論文 参考訳(メタデータ) (2024-04-12T14:12:03Z) - Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising [54.110544509099526]
ハイパースペクトル画像(HSI)は、ハイパースペクトルデータの効果的な解析と解釈に重要である。
ハイブリット・コンボリューション・アテンション・ネットワーク(HCANet)を提案する。
主流HSIデータセットに対する実験結果は,提案したHCANetの合理性と有効性を示している。
論文 参考訳(メタデータ) (2024-03-15T07:18:43Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Spectral Enhanced Rectangle Transformer for Hyperspectral Image
Denoising [64.11157141177208]
ハイパースペクトル画像の空間的およびスペクトル的相関をモデル化するスペクトル拡張矩形変換器を提案する。
前者に対しては、長方形自己アテンションを水平および垂直に利用し、空間領域における非局所的類似性を捉える。
後者のために,空間スペクトル立方体の大域的低ランク特性を抽出し,雑音を抑制するスペクトル拡張モジュールを設計する。
論文 参考訳(メタデータ) (2023-04-03T09:42:13Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。