論文の概要: IRX-1D: A Simple Deep Learning Architecture for Remote Sensing
Classifications
- arxiv url: http://arxiv.org/abs/2010.03902v2
- Date: Mon, 19 Jun 2023 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 08:27:46.179681
- Title: IRX-1D: A Simple Deep Learning Architecture for Remote Sensing
Classifications
- Title(参考訳): IRX-1D:リモートセンシング分類のための簡易ディープラーニングアーキテクチャ
- Authors: Mahesh Pal, Akshay, B. Charan Teja
- Abstract要約: 本稿では,インセプション,ResNet,Xceptionネットワークの各要素を組み合わせたシンプルなディープラーニングアーキテクチャを提案する。
分類精度の観点からは,ベイジアン最適化2D-CNNに比較して,提案手法による性能向上が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We proposes a simple deep learning architecture combining elements of
Inception, ResNet and Xception networks. Four new datasets were used for
classification with both small and large training samples. Results in terms of
classification accuracy suggests improved performance by proposed architecture
in comparison to Bayesian optimised 2D-CNN with small training samples.
Comparison of results using small training sample with Indiana Pines
hyperspectral dataset suggests comparable or better performance by proposed
architecture than nine reported works using different deep learning
architectures. In spite of achieving high classification accuracy with limited
training samples, comparison of classified image suggests different land cover
classes are assigned to same area when compared with the classified image
provided by the model trained using large training samples with all datasets.
- Abstract(参考訳): 本稿では,インセプション,ResNet,Xceptionネットワークの各要素を組み合わせたシンプルなディープラーニングアーキテクチャを提案する。
4つの新しいデータセットが、小規模および大規模トレーニングサンプルの分類に使用された。
分類精度はベイジアン最適化2D-CNNに比較して,提案手法による性能向上が示唆された。
インディ・パインズ・ハイパースペクトルデータセットを用いた小さなトレーニングサンプルによる結果の比較では、異なるディープラーニングアーキテクチャを用いた9つの報告結果よりも、提案されたアーキテクチャによる同等か良いパフォーマンスが示唆されている。
限られた訓練サンプルを用いた分類精度は高いが, 分類画像との比較では, 全データセットを用いた大規模トレーニングサンプルを用いた訓練モデルによる分類画像と比較すると, 異なる土地被覆クラスが同一領域に割り当てられていることが示唆された。
関連論文リスト
- On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Impact of PolSAR pre-processing and balancing methods on complex-valued
neural networks segmentation tasks [9.6556424340252]
複素値ニューラルネットワーク(CVNN)を用いたポラリメトリック合成開口レーダ(PolSAR)のセマンティックセグメンテーションについて検討する。
6つのモデルアーキテクチャ,3つの複素値,それぞれの実等価モデルについて,両手法を徹底的に比較する。
本稿では、このギャップを減らし、全ての入力表現、モデル、データセット前処理の結果を実行するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-10-28T12:49:43Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - PK-GCN: Prior Knowledge Assisted Image Classification using Graph
Convolution Networks [3.4129083593356433]
クラス間の類似性は、分類のパフォーマンスに影響を与える可能性がある。
本稿では,クラス類似性の知識を畳み込みニューラルネットワークモデルに組み込む手法を提案する。
実験結果から, 利用可能なデータの量が少ない場合には, 分類精度が向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-24T18:31:35Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - On the Texture Bias for Few-Shot CNN Segmentation [21.349705243254423]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクを実行するために形状によって駆動される。
最近の証拠は、CNNのテクスチャバイアスが、大きなラベル付きトレーニングデータセットで学習するときに、より高いパフォーマンスのモデルを提供することを示している。
本稿では,特徴空間内の高周波局所成分を減衰させるために,ガウス差分(DoG)の集合を統合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-09T11:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。