論文の概要: Spatial Gated Multi-Layer Perceptron for Land Use and Land Cover Mapping
- arxiv url: http://arxiv.org/abs/2308.05235v1
- Date: Wed, 9 Aug 2023 21:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 14:18:08.292531
- Title: Spatial Gated Multi-Layer Perceptron for Land Use and Land Cover Mapping
- Title(参考訳): 土地利用と土地被覆マッピングのための空間ゲート多層パーセプトロン
- Authors: Ali Jamali, Swalpa Kumar Roy, Danfeng Hong, Peter M Atkinson, Pedram
Ghamisi
- Abstract要約: 視覚変換器(ViT)は近年,CNNと比較してグローバルな文脈情報のモデリングに優れています。
現在の先進多層パーセプトロン(MLP)は、深層CNNとViTの両方に対して実行可能な代替手段を提供することができる。
本稿では,SGU-MLPという学習アルゴリズムを開発し,空間ゲーティングユニット(SGU)を正確な土地利用土地被覆マッピングに効果的に利用した。
- 参考スコア(独自算出の注目度): 20.04300777102243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) are models that are utilized extensively
for the hierarchical extraction of features. Vision transformers (ViTs),
through the use of a self-attention mechanism, have recently achieved superior
modeling of global contextual information compared to CNNs. However, to realize
their image classification strength, ViTs require substantial training
datasets. Where the available training data are limited, current advanced
multi-layer perceptrons (MLPs) can provide viable alternatives to both deep
CNNs and ViTs. In this paper, we developed the SGU-MLP, a learning algorithm
that effectively uses both MLPs and spatial gating units (SGUs) for precise
land use land cover (LULC) mapping. Results illustrated the superiority of the
developed SGU-MLP classification algorithm over several CNN and CNN-ViT-based
models, including HybridSN, ResNet, iFormer, EfficientFormer and CoAtNet. The
proposed SGU-MLP algorithm was tested through three experiments in Houston,
USA, Berlin, Germany and Augsburg, Germany. The SGU-MLP classification model
was found to consistently outperform the benchmark CNN and CNN-ViT-based
algorithms. For example, for the Houston experiment, SGU-MLP significantly
outperformed HybridSN, CoAtNet, Efficientformer, iFormer and ResNet by
approximately 15%, 19%, 20%, 21%, and 25%, respectively, in terms of average
accuracy. The code will be made publicly available at
https://github.com/aj1365/SGUMLP
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、特徴の階層的抽出に広く利用されるモデルである。
視覚変換器(ViT)は、自己認識機構を用いて、CNNと比較して、グローバルな文脈情報の優れたモデリングを実現している。
しかし、その画像分類強度を実現するために、ViTは相当なトレーニングデータセットを必要とする。
利用可能なトレーニングデータが限られている場合、現在の高度な多層パーセプトロン(MLP)は、ディープCNNとViTの両方に対して実行可能な代替手段を提供することができる。
本稿では,正確な土地利用土地被覆(LULC)マッピングにMLPと空間ゲーティングユニット(SGU)の両方を効果的に活用する学習アルゴリズムであるSGU-MLPを開発した。
その結果、hybridsn, resnet, iformer, efficientformer, coatnetなど、いくつかのcnnおよびcnn-vitモデルに対するsgu-mlp分類アルゴリズムの優位性が示された。
提案されたSGU-MLPアルゴリズムは、ヒューストン、アメリカ、ベルリン、ドイツ、アウクスブルクの3つの実験を通して試験された。
SGU-MLP分類モデルはベンチマークCNNとCNN-ViTベースのアルゴリズムより一貫して優れていた。
例えばヒューストンの実験では、SGU-MLPが平均精度で、HybridSN、CoAtNet、Efficientformer、iFormer、ResNetを約15%、19%、20%、21%、25%で上回った。
コードはhttps://github.com/aj1365/SGUMLPで公開される。
関連論文リスト
- How to Learn More? Exploring Kolmogorov-Arnold Networks for Hyperspectral Image Classification [26.37105279142761]
Kolmogorov-Arnold Networks (KANs) は視覚変換器 (ViTs) の代替として提案された。
本研究では,複雑なハイパースペクトル画像(HSI)データ分類におけるkansの有効性を評価する。
そこで我々は,1D,2D,3Dkanを用いたハイブリッドアーキテクチャを開発し,提案する。
論文 参考訳(メタデータ) (2024-06-22T03:31:02Z) - OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Hybrid CNN Bi-LSTM neural network for Hyperspectral image classification [1.2691047660244332]
本稿では,3次元CNN,2次元CNN,Bi-LSTMを組み合わせたニューラルネットワークを提案する。
99.83、99.98、100%の精度を達成でき、それぞれIP、PU、SAデータセットにおける最先端モデルのトレーニング可能なパラメータは30%に過ぎなかった。
論文 参考訳(メタデータ) (2024-02-15T15:46:13Z) - Reusing Convolutional Neural Network Models through Modularization and
Composition [22.823870645316397]
我々はCNNSplitterとGradSplitterという2つのモジュール化手法を提案する。
CNNSplitterは、トレーニングされた畳み込みニューラルネットワーク(CNN)モデルを、小さな再利用可能なモジュールとして$N$に分解する。
生成されたモジュールは、既存のCNNモデルにパッチを当てたり、コンポジションを通じて新しいCNNモデルを構築するために再利用することができる。
論文 参考訳(メタデータ) (2023-11-08T03:18:49Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Deep Learning based Coverage and Rate Manifold Estimation in Cellular
Networks [34.83409329913271]
CNN-AEはインド、ブラジル、ドイツ、アメリカの位置情報を用いて訓練されている。
CNN-AEは、カバレッジとレート予測エラーを、それぞれ40%$と25%$のマージンで改善している。
論文 参考訳(メタデータ) (2022-02-13T19:26:44Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for
Image Recognition [123.59890802196797]
画像認識のための多層パーセプトロン型ニューラルネットワーク構築ブロックであるRepMLPを提案する。
トレーニング中にRepMLP内に畳み込み層を構築し,それをFCにマージして推論を行う。
従来のCNNにRepMLPを挿入することで、ImageNetでは1.8%の精度、顔認識では2.9%、FLOPの低いCityscapeでは2.3%のmIoUを改善します。
論文 参考訳(メタデータ) (2021-05-05T06:17:40Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。