論文の概要: Efficient deep learning models for land cover image classification
- arxiv url: http://arxiv.org/abs/2111.09451v1
- Date: Thu, 18 Nov 2021 00:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 23:59:56.976813
- Title: Efficient deep learning models for land cover image classification
- Title(参考訳): 土地被覆画像分類のための効率的な深層学習モデル
- Authors: Ioannis Papoutsis, Nikolaos-Ioannis Bountos, Angelos Zavras, Dimitrios
Michail, Christos Tryfonopoulos
- Abstract要約: 土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
- 参考スコア(独自算出の注目度): 0.29748898344267777
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The availability of the sheer volume of Copernicus Sentinel imagery has
created new opportunities for land use land cover (LULC) mapping at large
scales using deep learning. Training on such large datasets though is a
non-trivial task. In this work we experiment with the BigEarthNet dataset for
LULC image classification and benchmark different state-of-the-art models,
including Convolution Neural Networks, Multi-Layer Perceptrons, Visual
Transformers, EfficientNets and Wide Residual Networks (WRN) architectures. Our
aim is to leverage classification accuracy, training time and inference rate.
We propose a framework based on EfficientNets for compound scaling of WRNs in
terms of network depth, width and input data resolution, for efficiently
training and testing different model setups. We design a novel scaled WRN
architecture enhanced with an Efficient Channel Attention mechanism. Our
proposed lightweight model has an order of magnitude less trainable parameters,
achieves 4.5% higher averaged f-score classification accuracy for all 19 LULC
classes and is trained two times faster with respect to a ResNet50
state-of-the-art model that we use as a baseline. We provide access to more
than 50 trained models, along with our code for distributed training on
multiple GPU nodes.
- Abstract(参考訳): Copernicus Sentinel 画像の高容量化により、土地利用土地被覆(LULC)を大規模に深層学習でマッピングする新たな機会が生まれた。
しかし、このような大きなデータセットでのトレーニングは簡単な作業ではない。
本研究では,畳み込みニューラルネットワーク,多層パーセプトロン,視覚トランスフォーマ,効率ネット,広帯域残留ネットワーク(wrn)アーキテクチャなど,lulc画像分類とベンチマークのためのbigearthnetデータセットを実験した。
本研究の目的は,分類精度,訓練時間,推論率の活用である。
本稿では,ネットワークの奥行き,幅,入力データの解像度という観点から,wrnの複合スケーリングのための効率性に基づくフレームワークを提案し,異なるモデルのセットアップを効率的にトレーニングし,テストする。
本稿では,効率的なチャネルアテンション機構を備えたWRNアーキテクチャを設計する。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
トレーニングされた50以上のモデルへのアクセスと、複数のGPUノード上での分散トレーニングのためのコードを提供しています。
関連論文リスト
- Effective pruning of web-scale datasets based on complexity of concept
clusters [48.125618324485195]
本稿では,大規模なマルチモーダルデータセットを抽出し,イメージネット上でCLIPスタイルのモデルを訓練する手法を提案する。
高品質なデータのより小さなセットでのトレーニングは、トレーニングコストを大幅に削減して、より高いパフォーマンスをもたらす可能性があることに気付きました。
我々は38の評価タスクにおいて、新しい最先端のImagehttps://info.arxiv.org/help/prep#commentsネットゼロショット精度と競合平均ゼロショット精度を実現する。
論文 参考訳(メタデータ) (2024-01-09T14:32:24Z) - Toward efficient resource utilization at edge nodes in federated learning [0.6990493129893112]
フェデレートされた学習により、エッジノードは、データを共有することなく、グローバルモデルの構築に協力的に貢献することができる。
計算リソースの制約とネットワーク通信は、ディープラーニングアプリケーションに典型的なより大きなモデルサイズにとって、深刻なボトルネックになる可能性がある。
デバイス上での資源利用を減らすため,転送学習にインスパイアされたFL戦略を提案し,評価する。
論文 参考訳(メタデータ) (2023-09-19T07:04:50Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - A Robust and Low Complexity Deep Learning Model for Remote Sensing Image
Classification [1.9019295680940274]
リモートセンシング画像分類(RSIC)のための頑健で低複雑性なディープラーニングモデルを提案する。
ベンチマークデータセットNWPU-RESISC45の広範な実験を行うことで、ロバストで低複雑さのモデルを実現する。
論文 参考訳(メタデータ) (2022-11-05T06:14:30Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Classification of Quasars, Galaxies, and Stars in the Mapping of the
Universe Multi-modal Deep Learning [0.0]
Sloan Digital Sky Survey (SDSS-4)の第4バージョンであるData Release 16データセットは、SDSSデータセットを、マシンラーニングとディープラーニングアーキテクチャを使用して、銀河、星、クエーサーに分類するために使用された。
我々は、新しいマルチモーダルアーキテクチャを構築し、最先端の結果を得る。
論文 参考訳(メタデータ) (2022-05-22T05:17:31Z) - Classification of Astronomical Bodies by Efficient Layer Fine-Tuning of
Deep Neural Networks [0.0]
SDSS-IVデータセットには、銀河、星、クエーサーなどの様々な天体に関する情報が含まれている。
深層マルチモーダル学習の研究に触発されて、これらのアーキテクチャの微調整に関する研究をさらに拡張し、分類シナリオの効果について検討した。
論文 参考訳(メタデータ) (2022-05-14T20:08:19Z) - LilNetX: Lightweight Networks with EXtreme Model Compression and
Structured Sparsification [36.651329027209634]
LilNetXは、ニューラルネットワークのためのエンドツーエンドのトレーニング可能なテクニックである。
特定の精度-レート-計算トレードオフを持つ学習モデルを可能にする。
論文 参考訳(メタデータ) (2022-04-06T17:59:10Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。