論文の概要: DSXFormer: Dual-Pooling Spectral Squeeze-Expansion and Dynamic Context Attention Transformer for Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2602.01906v1
- Date: Mon, 02 Feb 2026 10:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.066993
- Title: DSXFormer: Dual-Pooling Spectral Squeeze-Expansion and Dynamic Context Attention Transformer for Hyperspectral Image Classification
- Title(参考訳): DSXFormer:双極小スペクトルスキーズ展開とハイパースペクトル画像分類のための動的コンテキスト注意変換器
- Authors: Farhan Ullah, Irfan Ullah, Khalil Khan, Giovanni Pau, JaKeoung Koo,
- Abstract要約: DSXFormerは、HSICのための動的コンテキストアテンションを備えた新しいデュアルプール式圧縮膨張トランスである。
最先端の手法を一貫して上回り、それぞれ99.95%、98.91%、99.85%、98.52%の分類精度を達成している。
- 参考スコア(独自算出の注目度): 4.361601680177976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperspectral image classification (HSIC) is a challenging task due to high spectral dimensionality, complex spectral-spatial correlations, and limited labeled training samples. Although transformer-based models have shown strong potential for HSIC, existing approaches often struggle to achieve sufficient spectral discriminability while maintaining computational efficiency. To address these limitations, we propose a novel DSXFormer, a novel dual-pooling spectral squeeze-expansion transformer with Dynamic Context Attention for HSIC. The proposed DSXFormer introduces a Dual-Pooling Spectral Squeeze-Expansion (DSX) block, which exploits complementary global average and max pooling to adaptively recalibrate spectral feature channels, thereby enhancing spectral discriminability and inter-band dependency modeling. In addition, DSXFormer incorporates a Dynamic Context Attention (DCA) mechanism within a window-based transformer architecture to dynamically capture local spectral-spatial relationships while significantly reducing computational overhead. The joint integration of spectral dual-pooling squeeze-expansion and DCA enables DSXFormer to achieve an effective balance between spectral emphasis and spatial contextual representation. Furthermore, patch extraction, embedding, and patch merging strategies are employed to facilitate efficient multi-scale feature learning. Extensive experiments conducted on four widely used hyperspectral benchmark datasets, including Salinas (SA), Indian Pines (IP), Pavia University (PU), and Kennedy Space Center (KSC), demonstrate that DSXFormer consistently outperforms state-of-the-art methods, achieving classification accuracies of 99.95%, 98.91%, 99.85%, and 98.52%, respectively.
- Abstract(参考訳): ハイパースペクトル画像分類(HSIC)は、高スペクトル次元、複雑なスペクトル-空間相関、ラベル付きトレーニングサンプルの限定による課題である。
トランスフォーマーベースのモデルはHSICの強力な可能性を示しているが、既存のアプローチは計算効率を維持しながら十分なスペクトル識別性を達成するのに苦労することが多い。
これらの制約に対処するため,HSICのための動的コンテキストアテンションを備えた新しいデュアルプール・スペクトル・ストレッチ・エクスパンション・トランスであるDSXFormerを提案する。
提案するDSXFormerはDual-Pooling Spectral Squeeze-Expansion (DSX) ブロックを導入し,スペクトル特徴チャネルを適応的に校正し,スペクトル識別性と帯域間依存性のモデリングを向上させる。
さらに、DSXFormerは、動的コンテキスト注意(DCA)機構をウィンドウベースのトランスフォーマーアーキテクチャに組み込んで、局所スペクトル-空間関係を動的にキャプチャし、計算オーバーヘッドを大幅に削減する。
スペクトル双対圧縮膨張とDCAの結合により、DSXFormerはスペクトル強調と空間的文脈表現の効果的なバランスを達成できる。
さらに、効率的なマルチスケール特徴学習を容易にするために、パッチ抽出、埋め込み、パッチマージ戦略が採用されている。
サリナス (SA) 、インドパインズ (IP) 、パヴィア大学 (PU) 、ケネディ宇宙センター (KSC) など、広く使われている4つのハイパースペクトルベンチマークデータセットで実施された大規模な実験では、DSXFormer は最先端の手法を一貫して上回り、それぞれ99.95%、98.91%、99.85%、98.52%の分類精度を達成している。
関連論文リスト
- SR$^{2}$-Net: A General Plug-and-Play Model for Spectral Refinement in Hyperspectral Image Super-Resolution [3.4888894498274747]
HSI-SRは、スペクトル的に忠実で物理的に妥当な特性を維持しながら、空間分解能を高めることを目的としている。
これらの方法はしばしばバンド間のスペクトルの一貫性を無視し、刺激的な振動と物理的に不可解な人工物をもたらす。
本稿では,この問題に対処するための軽量なプラグ・アンド・プレイ方式であるSpectral Rectification Super-Resolution Network (SR$2$-Net)を提案する。
論文 参考訳(メタデータ) (2026-01-29T07:00:00Z) - Efficient Hyperspectral Image Reconstruction Using Lightweight Separate Spectral Transformers [26.683800044549105]
高速ハイパースペクトル画像再構成に適した革新的なアーキテクチャであるLSST(Lightweight Separate Spectral Transformer)を導入する。
我々のLSSTは、FLOPやパラメータを少なくして優れた性能を実現し、その効率と有効性を裏付ける。
論文 参考訳(メタデータ) (2026-01-03T04:19:14Z) - CARL: Camera-Agnostic Representation Learning for Spectral Image Analysis [69.02751635551724]
スペクトルイメージングは、医療や都市景観の理解など、様々な領域で有望な応用を提供する。
スペクトルカメラのチャネル次元と捕獲波長のばらつきは、AI駆動方式の開発を妨げる。
本稿では,RGB,マルチスペクトル,ハイパースペクトル画像を用いたカメラ非依存表現学習モデルCARLを紹介する。
論文 参考訳(メタデータ) (2025-04-27T13:06:40Z) - Unleashing Correlation and Continuity for Hyperspectral Reconstruction from RGB Images [64.80875911446937]
RGB画像からのHSI再構成のための相関連続性ネットワーク(CCNet)を提案する。
局所スペクトルの相関について,GrSCM(Group-wise Spectral correlation Modeling)モジュールを紹介する。
グローバルスペクトルの連続性のために、我々はNeSCMモジュールを設計する。
論文 参考訳(メタデータ) (2025-01-02T15:14:40Z) - DiffFormer: a Differential Spatial-Spectral Transformer for Hyperspectral Image Classification [3.271106943956333]
超スペクトル画像分類(HSIC)は、高次元データをスペクトル情報と空間情報で分析する可能性から注目されている。
本稿では、スペクトル冗長性や空間不連続性といったHSICの固有の課題に対処するために、差分空間スペクトル変換器(DiffFormer)を提案する。
ベンチマークハイパースペクトルデータセットの実験は、分類精度、計算効率、一般化可能性の観点から、DiffFormerの優位性を示す。
論文 参考訳(メタデータ) (2024-12-23T07:21:41Z) - HyperSIGMA: Hyperspectral Intelligence Comprehension Foundation Model [88.13261547704444]
Hyper SIGMAは、タスクやシーン間でHSI解釈を統合するビジョントランスフォーマーベースの基礎モデルである。
さらに,約450Kのハイパースペクトル画像を含む,事前学習のための大規模ハイパースペクトルデータセットHyperGlobal-450Kを構築した。
論文 参考訳(メタデータ) (2024-06-17T13:22:58Z) - Learning Exhaustive Correlation for Spectral Super-Resolution: Where Spatial-Spectral Attention Meets Linear Dependence [26.1694389791047]
スペクトル超解像は、容易に取得可能なRGB画像からハイパースペクトル像(HSI)を復元することを目的としている。
既存のTransformerのボトルネックは2種類あり、パフォーマンスの改善と実用性に制限がある。
スペクトル超解像のための新しい Exhaustive correlation Transformer (ECT) を提案する。
論文 参考訳(メタデータ) (2023-12-20T08:30:07Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Mask-guided Spectral-wise Transformer for Efficient Hyperspectral Image
Reconstruction [127.20208645280438]
ハイパースペクトル画像(HSI)再構成は、2次元計測から3次元空間スペクトル信号を復元することを目的としている。
スペクトル間相互作用のモデル化は、HSI再構成に有用である。
Mask-guided Spectral-wise Transformer (MST) は,HSI再構成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-15T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。