論文の概要: Sharpend Cosine Similarity based Neural Network for Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/2305.16682v1
- Date: Fri, 26 May 2023 07:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 16:29:37.259560
- Title: Sharpend Cosine Similarity based Neural Network for Hyperspectral Image
Classification
- Title(参考訳): シャープエンドコサイン類似性に基づくハイパースペクトル画像分類のためのニューラルネットワーク
- Authors: Muhammad Ahmad
- Abstract要約: ハイパースペクトル画像分類(HSIC)は、高いクラス間類似度と変動性、ネスト領域、重なり合いのため難しい課題である。
2D畳み込みニューラルネットワーク(CNN)は有効なネットワークとして登場したが、3D CNNは正確な分類のため、より良い代替手段である。
本稿では,HSICのためのニューラルネットワークにおける畳み込みの代替として,SCS(Sharpened Cosine similarity)の概念を紹介する。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperspectral Image Classification (HSIC) is a difficult task due to high
inter and intra-class similarity and variability, nested regions, and
overlapping. 2D Convolutional Neural Networks (CNN) emerged as a viable network
whereas, 3D CNNs are a better alternative due to accurate classification.
However, 3D CNNs are highly computationally complex due to their volume and
spectral dimensions. Moreover, down-sampling and hierarchical filtering (high
frequency) i.e., texture features need to be smoothed during the forward pass
which is crucial for accurate HSIC. Furthermore, CNN requires tons of tuning
parameters which increases the training time. Therefore, to overcome the
aforesaid issues, Sharpened Cosine Similarity (SCS) concept as an alternative
to convolutions in a Neural Network for HSIC is introduced. SCS is
exceptionally parameter efficient due to skipping the non-linear activation
layers, normalization, and dropout after the SCS layer. Use of MaxAbsPool
instead of MaxPool which selects the element with the highest magnitude of
activity, even if it's negative. Experimental results on publicly available HSI
datasets proved the performance of SCS as compared to the convolutions in
Neural Networks.
- Abstract(参考訳): ハイパースペクトル画像分類(HSIC)は、高いクラス間類似度と変動性、ネスト領域、重なり合いのため難しい課題である。
2D畳み込みニューラルネットワーク(CNN)は有効なネットワークとして登場したが、3D CNNは正確な分類のため、より良い代替手段である。
しかし、3d cnnは体積とスペクトル次元のため計算量が非常に複雑である。
さらに、ダウンサンプリングと階層フィルタリング(高周波)、すなわち、正確なHSICに不可欠な前方通過時にテクスチャ機能をスムースにする必要がある。
さらに、CNNはトレーニング時間を増加させる大量のチューニングパラメータを必要とする。
そのため,hsic用ニューラルネットワークにおける畳み込みの代替として,cosine similarity (scs) 概念のシャープ化が提案されている。
SCSは、非線形活性化層をスキップし、正規化し、SCS層の後にドロップアウトするため、例外的にパラメータ効率が良い。
MaxPoolの代わりにMaxAbsPoolを使用すると、たとえそれが負であっても、最も大きなアクティビティを持つ要素を選択する。
公開されているHSIデータセットの実験結果から、ニューラルネットワークの畳み込みと比較してSCSの性能が証明された。
関連論文リスト
- Hyperspectral Image Classification Based on Faster Residual Multi-branch Spiking Neural Network [6.166929138912052]
本稿では,HSI分類タスクのための漏洩統合火災ニューロンモデルに基づくスパイキングニューラルネットワーク(SNN)を構築する。
SNN-SWMRでは、タイムステップの約84%、トレーニング時間、テストタイムの約63%と70%を同じ精度で削減する必要がある。
論文 参考訳(メタデータ) (2024-09-18T00:51:01Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - HYPER-SNN: Towards Energy-efficient Quantized Deep Spiking Neural
Networks for Hyperspectral Image Classification [5.094623170336122]
スパイキングニューラルネットワーク(SNN)は、重量、膜漏れ、発射閾値を最適化するために量子化対応の勾配降下を訓練する。
トレーニングと推論の両方の間、HSIのアナログ画素値はスパイクトレインに変換することなくSNNの入力層に直接適用される。
3次元および3次元/2次元ハイブリッド畳み込みアーキテクチャ上での3つのHSIデータセットを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-07-26T06:17:10Z) - Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning [67.40866334083941]
限定サンプルに基づくHSI分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(CNN)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低い。
本モデルでは,HSI分類の競合性能を,いくつかの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-12-07T03:44:35Z) - Hyperspectral Image Classification with Spatial Consistence Using Fully
Convolutional Spatial Propagation Network [9.583523548244683]
深部畳み込みニューラルネットワーク(CNN)は、高スペクトル画像(HSI)を表現できる印象的な能力を示している
本稿では,HSI分類のための新しいエンドツーエンドの画素間完全畳み込み空間伝搬ネットワーク(FCSPN)を提案する。
FCSPNは3次元完全畳み込みネットワーク(3D-FCN)と畳み込み空間伝播ネットワーク(CSPN)からなる。
論文 参考訳(メタデータ) (2020-08-04T09:05:52Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - A Fast 3D CNN for Hyperspectral Image Classification [0.456877715768796]
ハイパースペクトルイメージング(HSI)は、多くの現実世界の用途に広く利用されている。
2次元畳み込みニューラルネットワーク(CNN)は、HSICがスペクトル空間情報の両方に大きく依存する、実行可能なアプローチである。
本研究は,空間スペクトル特徴写像を併用した3次元CNNモデルを提案する。
論文 参考訳(メタデータ) (2020-04-29T12:57:36Z) - Hyperspectral Classification Based on 3D Asymmetric Inception Network
with Data Fusion Transfer Learning [36.05574127972413]
私たちはまず、3D非対称なインセプションネットワークであるAINetを提供し、過度に適合する問題を克服します。
HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。
論文 参考訳(メタデータ) (2020-02-11T06:37:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。