論文の概要: Towards Lightweight Hyperspectral Image Super-Resolution with Depthwise Separable Dilated Convolutional Network
- arxiv url: http://arxiv.org/abs/2505.00374v1
- Date: Thu, 01 May 2025 07:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.262149
- Title: Towards Lightweight Hyperspectral Image Super-Resolution with Depthwise Separable Dilated Convolutional Network
- Title(参考訳): ディプリタブル拡散畳み込みネットワークによる軽量ハイパースペクトル画像の超解像に向けて
- Authors: Usman Muhammad, Jorma Laaksonen, Lyudmila Mihaylova,
- Abstract要約: ハイパースペクトル画像超解像の課題に対処するために, 軽量な深度分離型拡張畳み込みネットワーク (DSDCN) を導入する。
平均二乗誤差(MSE)、L2ノルム正規化に基づく制約、スペクトル角に基づく損失を組み合わせたカスタム損失関数を提案する。
提案モデルは、2つの公開ハイパースペクトルデータセット上で非常に競争力のある性能を実現する。
- 参考スコア(独自算出の注目度): 6.5149222591754725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have demonstrated highly competitive performance in super-resolution (SR) for natural images by learning mappings from low-resolution (LR) to high-resolution (HR) images. However, hyperspectral super-resolution remains an ill-posed problem due to the high spectral dimensionality of the data and the scarcity of available training samples. Moreover, existing methods often rely on large models with a high number of parameters or require the fusion with panchromatic or RGB images, both of which are often impractical in real-world scenarios. Inspired by the MobileNet architecture, we introduce a lightweight depthwise separable dilated convolutional network (DSDCN) to address the aforementioned challenges. Specifically, our model leverages multiple depthwise separable convolutions, similar to the MobileNet architecture, and further incorporates a dilated convolution fusion block to make the model more flexible for the extraction of both spatial and spectral features. In addition, we propose a custom loss function that combines mean squared error (MSE), an L2 norm regularization-based constraint, and a spectral angle-based loss, ensuring the preservation of both spectral and spatial details. The proposed model achieves very competitive performance on two publicly available hyperspectral datasets, making it well-suited for hyperspectral image super-resolution tasks. The source codes are publicly available at: \href{https://github.com/Usman1021/lightweight}{https://github.com/Usman1021/lightweight}.
- Abstract(参考訳): 深層ニューラルネットワークは、低分解能(LR)から高分解能(HR)画像へのマッピングを学習することで、自然画像の超解像(SR)において高い競争性能を示した。
しかし、ハイパースペクトル超解像は、データの高スペクトル次元と利用可能なトレーニングサンプルの不足のため、未解決の問題のままである。
さらに、既存の手法は、多くのパラメータを持つ大規模なモデルに依存したり、パンクロマティック画像やRGB画像との融合を必要とする場合が多いが、どちらも現実のシナリオでは現実的ではないことが多い。
MobileNetアーキテクチャにインスパイアされた我々は、上記の課題に対処するために、軽量な深さ分離型拡張畳み込みネットワーク(DSDCN)を導入する。
具体的には,MobileNetアーキテクチャと同様の深度分離可能な複数の畳み込みを活用し,さらに拡張畳み込み融合ブロックを組み込んで,空間的特徴とスペクトル的特徴の抽出をより柔軟にする。
さらに、平均二乗誤差(MSE)、L2ノルム正規化に基づく制約、スペクトル角に基づく損失を組み合わせ、スペクトルと空間の詳細の保存を保証するカスタムロス関数を提案する。
提案モデルは2つの公開ハイパースペクトルデータセット上で非常に競争力のある性能を実現し,ハイパースペクトル画像の超解像処理に適している。
ソースコードは以下で公開されている。 \href{https://github.com/Usman1021/lightweight}{https://github.com/Usman1021/lightweight}。
関連論文リスト
- Unsupervised Hyperspectral and Multispectral Image Blind Fusion Based on Deep Tucker Decomposition Network with Spatial-Spectral Manifold Learning [15.86617273658407]
タッカー分解と空間スペクトル多様体学習(DTDNML)に基づくハイパースペクトル・マルチスペクトル画像の教師なしブラインド融合法を提案する。
本手法は,様々なリモートセンシングデータセット上でのハイパースペクトルとマルチスペクトル融合の精度と効率を向上させる。
論文 参考訳(メタデータ) (2024-09-15T08:58:26Z) - Physics-Inspired Degradation Models for Hyperspectral Image Fusion [61.743696362028246]
ほとんどの融合法は、融合アルゴリズム自体にのみ焦点をあて、分解モデルを見落としている。
我々は、LR-HSIとHR-MSIの劣化をモデル化するための物理インスパイアされた劣化モデル(PIDM)を提案する。
提案したPIDMは,既存の核融合法における核融合性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-04T09:07:28Z) - Unsupervised Hyperspectral and Multispectral Images Fusion Based on the
Cycle Consistency [21.233354336608205]
本稿では,CycFusionと呼ばれるサイクル一貫性に基づく教師なしHSIとMSIの融合モデルを提案する。
CycFusion は低空間分解能 HSI (LrHSI) と高空間分解能 MSI (HrMSI) の領域変換を学習する
いくつかのデータセットで行った実験により,提案手法は非教師なし核融合法よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2023-07-07T06:47:15Z) - Deep Posterior Distribution-based Embedding for Hyperspectral Image
Super-resolution [75.24345439401166]
本稿では,高スペクトル画像の高次元空間スペクトル情報を効率的に効率的に埋め込む方法について述べる。
我々は,HS埋め込みを,慎重に定義されたHS埋め込みイベントの集合の後方分布の近似として定式化する。
そして,提案手法を物理的に解釈可能なソース一貫性超解像フレームワークに組み込む。
3つの一般的なベンチマークデータセットに対する実験により、PDE-Netは最先端の手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-05-30T06:59:01Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Real Image Super Resolution Via Heterogeneous Model Ensemble using
GP-NAS [63.48801313087118]
本稿では,高密度スキップ接続を有するディープ残差ネットワークを用いた画像超解像法を提案する。
提案手法は、AIM 2020 Real Image Super-Resolution Challengeの3トラックで1位を獲得した。
論文 参考訳(メタデータ) (2020-09-02T22:33:23Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Hyperspectral Image Super-resolution via Deep Spatio-spectral
Convolutional Neural Networks [32.10057746890683]
本稿では,高分解能ハイパースペクトル像と高分解能マルチスペクトル像を融合させる,深部畳み込みニューラルネットワークの簡易かつ効率的なアーキテクチャを提案する。
提案したネットワークアーキテクチャは,近年の最先端ハイパースペクトル画像の超解像化手法と比較して,最高の性能を達成している。
論文 参考訳(メタデータ) (2020-05-29T05:56:50Z) - Learning Spatial-Spectral Prior for Super-Resolution of Hyperspectral
Imagery [79.69449412334188]
本稿では,最先端の残差学習をベースとした単一グレー/RGB画像の超解像化手法について検討する。
本稿では,空間情報とハイパースペクトルデータのスペクトル間の相関をフル活用するための空間スペクトル先行ネットワーク(SSPN)を提案する。
実験結果から,SSPSR法により高分解能高分解能高分解能画像の詳細が得られた。
論文 参考訳(メタデータ) (2020-05-18T14:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。