論文の概要: Shallow Network Based on Depthwise Over-Parameterized Convolution for
Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2112.00250v1
- Date: Wed, 1 Dec 2021 03:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 02:18:13.841514
- Title: Shallow Network Based on Depthwise Over-Parameterized Convolution for
Hyperspectral Image Classification
- Title(参考訳): ハイパースペクトル画像分類のための奥行き過度畳み込みに基づく浅層ネットワーク
- Authors: Hongmin Gao, Member, IEEE, Zhonghao Chen, Student Member, IEEE, and
Chenming Li
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)を用いたハイパースペクトル画像分類(HSIC)の浅層モデルを提案する。
提案手法は、分類精度と計算効率の観点から、他の最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 0.7329200485567825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, convolutional neural network (CNN) techniques have gained
popularity as a tool for hyperspectral image classification (HSIC). To improve
the feature extraction efficiency of HSIC under the condition of limited
samples, the current methods generally use deep models with plenty of layers.
However, deep network models are prone to overfitting and gradient vanishing
problems when samples are limited. In addition, the spatial resolution
decreases severely with deeper depth, which is very detrimental to spatial edge
feature extraction. Therefore, this letter proposes a shallow model for HSIC,
which is called depthwise over-parameterized convolutional neural network
(DOCNN). To ensure the effective extraction of the shallow model, the depthwise
over-parameterized convolution (DO-Conv) kernel is introduced to extract the
discriminative features. The depthwise over-parameterized Convolution kernel is
composed of a standard convolution kernel and a depthwise convolution kernel,
which can extract the spatial feature of the different channels individually
and fuse the spatial features of the whole channels simultaneously. Moreover,
to further reduce the loss of spatial edge features due to the convolution
operation, a dense residual connection (DRC) structure is proposed to apply to
the feature extraction part of the whole network. Experimental results obtained
from three benchmark data sets show that the proposed method outperforms other
state-of-the-art methods in terms of classification accuracy and computational
efficiency.
- Abstract(参考訳): 近年,高スペクトル画像分類(HSIC)ツールとして,畳み込みニューラルネットワーク(CNN)技術が普及している。
限られたサンプル条件下でのhsicの特徴抽出効率を向上させるため, 従来の手法では, 層数が多い深層モデルが一般的である。
しかし, 深層ネットワークモデルでは, サンプルが限定された場合, 過度に適合し, 勾配が低下する傾向にある。
さらに,深部では空間分解能が著しく低下し,空間エッジ特徴抽出に非常に不利である。
そこで本稿では,深度過パラメータ畳み込みニューラルネットワーク(DOCNN)と呼ばれるHSICの浅層モデルを提案する。
浅層モデルの効率的な抽出を確保するため,深度過パラメータ化畳み込み(DO-Conv)カーネルを導入して識別特性を抽出する。
深さ方向の超パラメータ畳み込みカーネルは、標準畳み込みカーネルと深さ方向畳み込みカーネルで構成されており、異なるチャネルの空間的特徴を個別に抽出し、チャネル全体の空間的特徴を同時に融合することができる。
さらに、畳み込み動作による空間エッジ特性の損失を更に低減するために、ネットワーク全体の特徴抽出部に適用される高密度残差接続(drc)構造を提案する。
3つのベンチマークデータセットから得られた実験結果は,提案手法が分類精度と計算効率の点で他の最先端手法よりも優れていることを示している。
関連論文リスト
- Variational Inference for Infinitely Deep Neural Networks [0.4061135251278187]
非有界深度ニューラルネットワーク(UDN)
我々は、無限に深い確率モデルである非有界深度ニューラルネットワーク(UDN)を導入し、その複雑さをトレーニングデータに適用する。
我々はUDNを実データと合成データに基づいて研究する。
論文 参考訳(メタデータ) (2022-09-21T03:54:34Z) - Dynamic Spatial Propagation Network for Depth Completion [6.3447233767041356]
本稿では,周辺画素間の親和性を注目に基づくアプローチで学習する効率的なモデルを提案する。
実際に,本手法では,他のSPNの性能に適合するイテレーションを少なくし,全体としてより優れた結果が得られる。
論文 参考訳(メタデータ) (2022-02-20T09:43:17Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Pyramidal Dense Attention Networks for Lightweight Image
Super-Resolution [37.58180059860872]
深部畳み込みニューラルネットワーク法は画像超解像において優れた性能を達成した。
軽量画像超解像のためのピラミッド型高密度アテンションネットワーク(PDAN)を提案する。
本手法は,最先端の軽量SR法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2021-06-13T13:49:41Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Compressive spectral image classification using 3D coded convolutional
neural network [12.67293744927537]
本稿では、符号化開口スナップショット分光画像(CASSI)の測定に基づく新しい深層学習HIC手法を提案する。
3次元符号化畳み込みニューラルネットワーク(3D-CCNN)と呼ばれる新しいタイプのディープラーニング戦略を提案し,その分類問題を効率的に解く。
ディープラーニングネットワークと符号化開口部の相乗効果を利用して、分類精度を効果的に向上する。
論文 参考訳(メタデータ) (2020-09-23T15:05:57Z) - Tensor decomposition to Compress Convolutional Layers in Deep Learning [5.199454801210509]
本稿では,CP分解法を用いて,ディープラーニングにおける畳み込み層(CPAC-Conv層)を近似的に圧縮することを提案する。
提案するCPAC-Conv層に対して, 提案したCPAC-Conv層に対して, 提案したCPAC-Conv層を圧縮するためにCP分解を適用し, 提案したCPAC-Conv層と比較して, 提案したCPAC-Conv層は, 予測性能を損なうことなくパラメータ数を減少させることができ, (3) 分解されたカーネルの値は, 対応する特徴写像の意義を示す。
論文 参考訳(メタデータ) (2020-05-28T02:35:48Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。