論文の概要: Attention Mechanism Meets with Hybrid Dense Network for Hyperspectral
Image Classification
- arxiv url: http://arxiv.org/abs/2201.01001v1
- Date: Tue, 4 Jan 2022 06:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 20:38:36.213593
- Title: Attention Mechanism Meets with Hybrid Dense Network for Hyperspectral
Image Classification
- Title(参考訳): ハイパースペクトル画像分類のためのハイブリッドデンスネットワークとの注意機構
- Authors: Muhammad Ahmad, Adil Mehmood Khan, Manuel Mazzara, Salvatore
Distefano, Swalpa Kumar Roy and Xin Wu
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、実際より適している。
固定化されたカーネルサイズは、従来のCNNが柔軟でも、特徴学習にも適さないため、分類精度に影響を及ぼす。
提案手法は,3Dと2Dインセプションネットのコアアイデアとアテンション機構を組み合わせることで,ハイブリッドシナリオにおけるHSIC CNNの性能向上を図ることを目的としている。
AfNetは、各ブロックに異なるカーネルを持つ3つのアテンションフューズされた並列ハイブリッドサブネットをベースとして、最終的な地上トラスマップを強化するために高レベルな特徴を繰り返し利用する。
- 参考スコア(独自算出の注目度): 6.946336514955953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNN) are more suitable, indeed. However, fixed
kernel sizes make traditional CNN too specific, neither flexible nor conducive
to feature learning, thus impacting on the classification accuracy. The
convolution of different kernel size networks may overcome this problem by
capturing more discriminating and relevant information. In light of this, the
proposed solution aims at combining the core idea of 3D and 2D Inception net
with the Attention mechanism to boost the HSIC CNN performance in a hybrid
scenario. The resulting \textit{attention-fused hybrid network} (AfNet) is
based on three attention-fused parallel hybrid sub-nets with different kernels
in each block repeatedly using high-level features to enhance the final
ground-truth maps. In short, AfNet is able to selectively filter out the
discriminative features critical for classification. Several tests on HSI
datasets provided competitive results for AfNet compared to state-of-the-art
models. The proposed pipeline achieved, indeed, an overall accuracy of 97\% for
the Indian Pines, 100\% for Botswana, 99\% for Pavia University, Pavia Center,
and Salinas datasets.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、実際より適している。
しかしながら、固定されたカーネルサイズは従来のcnnをあまりにも具体的であり、柔軟性も特徴学習にも寄与しないため、分類精度に影響を及ぼす。
異なるカーネルサイズネットワークの畳み込みは、より識別され関連する情報をキャプチャすることでこの問題を克服することができる。
提案手法は,3Dと2Dインセプションネットのコアアイデアとアテンション機構を組み合わせることで,ハイブリッドシナリオにおけるHSIC CNNの性能向上を図ることを目的としている。
結果として得られた \textit{attention-fused hybrid network} (afnet) は、各ブロックに異なるカーネルを持つ3つの注意操作された並列ハイブリッドサブネットに基づいている。
要するに、afnetは分類に不可欠な識別的特徴を選択的にフィルターすることができる。
HSIデータセットのいくつかのテストは、最先端のモデルと比較して、AfNetの競合結果を提供した。
提案するパイプラインは、実際には、インド松の97\%、ボツワナの100\%、パヴィア大学、パヴィアセンター、サリナスデータセットの99\%という全体的な精度を達成した。
関連論文リスト
- Learning CNN on ViT: A Hybrid Model to Explicitly Class-specific Boundaries for Domain Adaptation [13.753795233064695]
ほとんどのドメイン適応(DA)法は、畳み込みニューラルネットワーク(CNN)または視覚変換器(ViT)に基づいている。
ECB(Explicitly Class-specific boundaries)と呼ばれる,ViTとCNNの両方をフル活用するためのハイブリッド手法を設計する。
ECBは独自の強みを組み合わせるために、ViTでCNNを学びます。
論文 参考訳(メタデータ) (2024-03-27T08:52:44Z) - Hybrid CNN Bi-LSTM neural network for Hyperspectral image classification [1.2691047660244332]
本稿では,3次元CNN,2次元CNN,Bi-LSTMを組み合わせたニューラルネットワークを提案する。
99.83、99.98、100%の精度を達成でき、それぞれIP、PU、SAデータセットにおける最先端モデルのトレーニング可能なパラメータは30%に過ぎなかった。
論文 参考訳(メタデータ) (2024-02-15T15:46:13Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Sharpend Cosine Similarity based Neural Network for Hyperspectral Image
Classification [0.456877715768796]
ハイパースペクトル画像分類(HSIC)は、高いクラス間類似度と変動性、ネスト領域、重なり合いのため難しい課題である。
2D畳み込みニューラルネットワーク(CNN)は有効なネットワークとして登場したが、3D CNNは正確な分類のため、より良い代替手段である。
本稿では,HSICのためのニューラルネットワークにおける畳み込みの代替として,SCS(Sharpened Cosine similarity)の概念を紹介する。
論文 参考訳(メタデータ) (2023-05-26T07:04:00Z) - HAC-Net: A Hybrid Attention-Based Convolutional Neural Network for
Highly Accurate Protein-Ligand Binding Affinity Prediction [0.0]
本稿では,3次元畳み込みニューラルネットワークと2つのグラフ畳み込みニューラルネットワークからなる新しいディープラーニングアーキテクチャを提案する。
HAC-NetはPDBbind v.2016コアセットの最先端結果を取得する。
我々は,このモデルを,構造に基づく生体分子特性予測に関連する幅広い教師付き学習問題に拡張できると考えている。
論文 参考訳(メタデータ) (2022-12-23T16:14:53Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Hyperspectral Classification Based on 3D Asymmetric Inception Network
with Data Fusion Transfer Learning [36.05574127972413]
私たちはまず、3D非対称なインセプションネットワークであるAINetを提供し、過度に適合する問題を克服します。
HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。
論文 参考訳(メタデータ) (2020-02-11T06:37:34Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。