論文の概要: How to Learn More? Exploring Kolmogorov-Arnold Networks for Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2406.15719v1
- Date: Sat, 22 Jun 2024 03:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 20:54:52.678130
- Title: How to Learn More? Exploring Kolmogorov-Arnold Networks for Hyperspectral Image Classification
- Title(参考訳): より深く学ぶには?ハイパースペクトル画像分類のためのコルモゴロフ・アルノルドネットワークの探索
- Authors: Ali Jamali, Swalpa Kumar Roy, Danfeng Hong, Bing Lu, Pedram Ghamisi,
- Abstract要約: Kolmogorov-Arnold Networks (KANs) は視覚変換器 (ViTs) の代替として提案された。
本研究では,複雑なハイパースペクトル画像(HSI)データ分類におけるkansの有効性を評価する。
そこで我々は,1D,2D,3Dkanを用いたハイブリッドアーキテクチャを開発し,提案する。
- 参考スコア(独自算出の注目度): 26.37105279142761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) and vision transformers (ViTs) have shown excellent capability in complex hyperspectral image (HSI) classification. However, these models require a significant number of training data and are computational resources. On the other hand, modern Multi-Layer Perceptrons (MLPs) have demonstrated great classification capability. These modern MLP-based models require significantly less training data compared to CNNs and ViTs, achieving the state-of-the-art classification accuracy. Recently, Kolmogorov-Arnold Networks (KANs) were proposed as viable alternatives for MLPs. Because of their internal similarity to splines and their external similarity to MLPs, KANs are able to optimize learned features with remarkable accuracy in addition to being able to learn new features. Thus, in this study, we assess the effectiveness of KANs for complex HSI data classification. Moreover, to enhance the HSI classification accuracy obtained by the KANs, we develop and propose a Hybrid architecture utilizing 1D, 2D, and 3D KANs. To demonstrate the effectiveness of the proposed KAN architecture, we conducted extensive experiments on three newly created HSI benchmark datasets: QUH-Pingan, QUH-Tangdaowan, and QUH-Qingyun. The results underscored the competitive or better capability of the developed hybrid KAN-based model across these benchmark datasets over several other CNN- and ViT-based algorithms, including 1D-CNN, 2DCNN, 3D CNN, VGG-16, ResNet-50, EfficientNet, RNN, and ViT. The code are publicly available at (https://github.com/aj1365/HSIConvKAN)
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)は、複雑なハイパースペクトル画像(HSI)分類において優れた能力を示している。
しかし、これらのモデルは大量のトレーニングデータを必要とし、計算資源である。
一方、現代のマルチ層パーセプトロン(MLP)は、優れた分類能力を示している。
現代のMLPベースのモデルでは、CNNやViTに比べてトレーニングデータが少ないため、最先端の分類精度が向上する。
近年,MLPの代替としてKAN(Kolmogorov-Arnold Networks)が提案されている。
スプラインと内部的類似性やMDPと外部的類似性により、KANSAは学習した特徴を顕著な精度で最適化し、新しい特徴を学習することができる。
そこで本研究では,複雑なHSIデータ分類におけるkanの有効性を評価する。
さらに,KANSAが取得したHSI分類精度を向上させるために,1D,2D,3Dkanを用いたハイブリッドアーキテクチャを開発し,提案する。
提案アーキテクチャの有効性を実証するため,新たに作成された3つのHSIベンチマークデータセット,QUH-Pingan,QUH-Tangdaowan,QUH-Qingyunについて広範な実験を行った。
結果は、これらのベンチマークデータセットを1D-CNN、2DCNN、3D CNN、VGG-16、ResNet-50、EfficientNet、RNN、ViTなど、他のCNNおよびViTベースのアルゴリズムに比較して、開発されたハイブリッドkanベースのモデルの競争力またはより良い能力を強調した。
コードはhttps://github.com/aj1365/HSIConvKAN)で公開されている。
関連論文リスト
- Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - Subgraph Clustering and Atom Learning for Improved Image Classification [4.499833362998488]
本稿では,特徴抽出のための畳み込みニューラルネットワーク(CNN)と構造モデリングのためのグラフニューラルネットワーク(GNN)の長所を融合した,新しいハイブリッド画像分類モデルであるグラフサブグラフネットワーク(GSN)を提案する。
GSNはk平均クラスタリングを使用してグラフノードをクラスタにグループ化し、サブグラフの作成を容易にする。
これらの部分グラフを使用して、辞書学習のための代表原子を学習し、スパースでクラス区別可能な特徴の識別を可能にする。
論文 参考訳(メタデータ) (2024-07-20T06:32:00Z) - HyperKAN: Kolmogorov-Arnold Networks make Hyperspectral Image Classificators Smarter [0.0699049312989311]
本稿では,従来のネットワークの線形層と畳み込み層をKANベースのネットワークに置き換えることを提案する。
これらの修正により,高スペクトルリモートセンシング画像の画素単位の分類精度が大幅に向上した。
最も大きな効果は、スペクトルデータのみを扱う畳み込みネットワークにおいて達成された。
論文 参考訳(メタデータ) (2024-07-07T06:36:09Z) - Hybrid CNN Bi-LSTM neural network for Hyperspectral image classification [1.2691047660244332]
本稿では,3次元CNN,2次元CNN,Bi-LSTMを組み合わせたニューラルネットワークを提案する。
99.83、99.98、100%の精度を達成でき、それぞれIP、PU、SAデータセットにおける最先端モデルのトレーニング可能なパラメータは30%に過ぎなかった。
論文 参考訳(メタデータ) (2024-02-15T15:46:13Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Lightweight Hybrid CNN-ELM Model for Multi-building and Multi-floor
Classification [6.154022105385209]
本稿では,CNN と ELM の軽量な組み合わせを提案する。
その結果,提案モデルはベンチマークよりも58%高速であり,分類精度はわずかに向上した。
論文 参考訳(メタデータ) (2022-04-21T21:48:01Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning [67.40866334083941]
限定サンプルに基づくHSI分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(CNN)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低い。
本モデルでは,HSI分類の競合性能を,いくつかの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-12-07T03:44:35Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。