論文の概要: A Lightweight ReLU-Based Feature Fusion for Aerial Scene Classification
- arxiv url: http://arxiv.org/abs/2106.07879v1
- Date: Tue, 15 Jun 2021 04:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:03:56.180063
- Title: A Lightweight ReLU-Based Feature Fusion for Aerial Scene Classification
- Title(参考訳): 航空シーン分類のための軽量ReLU機能融合
- Authors: Md Adnan Arefeen, Sumaiya Tabassum Nimi, Md Yusuf Sarwar Uddin, Zhu Li
- Abstract要約: 航空シーン分類問題に対するトランスファーラーニングに基づくモデル構築手法を提案する。
提案手法のコアとなるのはReLU-Based Feature Fusion (RBFF) と呼ばれる層選択戦略であり, 事前学習したCNNに基づく単一対象画像分類モデルから特徴写像を抽出する。
RBFFは、分類器のいくつかのパラメータを除いて、ベースCNNモデルのトレーニングを著しく含まないため、実用的な展開に非常に費用対効果がある。
- 参考スコア(独自算出の注目度): 8.954130682534323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a transfer-learning based model construction
technique for the aerial scene classification problem. The core of our
technique is a layer selection strategy, named ReLU-Based Feature Fusion
(RBFF), that extracts feature maps from a pretrained CNN-based single-object
image classification model, namely MobileNetV2, and constructs a model for the
aerial scene classification task. RBFF stacks features extracted from the batch
normalization layer of a few selected blocks of MobileNetV2, where the
candidate blocks are selected based on the characteristics of the ReLU
activation layers present in those blocks. The feature vector is then
compressed into a low-dimensional feature space using dimension reduction
algorithms on which we train a low-cost SVM classifier for the classification
of the aerial images. We validate our choice of selected features based on the
significance of the extracted features with respect to our classification
pipeline. RBFF remarkably does not involve any training of the base CNN model
except for a few parameters for the classifier, which makes the technique very
cost-effective for practical deployments. The constructed model despite being
lightweight outperforms several recently proposed models in terms of accuracy
for a number of aerial scene datasets.
- Abstract(参考訳): 本稿では,航空シーン分類問題に対する移動学習に基づくモデル構築手法を提案する。
提案手法のコアとなるのはReLU-Based Feature Fusion (RBFF) と呼ばれる層選択戦略であり,事前訓練されたCNNベース単一対象画像分類モデル,すなわちMobileNetV2から特徴マップを抽出し,空中シーン分類作業のためのモデルを構築する。
RBFFスタックは、いくつかの選択されたMobileNetV2ブロックのバッチ正規化層から抽出され、これらのブロックに存在するReLU活性化層の特性に基づいて候補ブロックが選択される。
特徴ベクトルを次元還元アルゴリズムを用いて低次元特徴空間に圧縮し,航空画像の分類のための低コストなSVM分類器を訓練する。
抽出した特徴の分類パイプラインにおける意義に基づいて,選択した特徴の選択を検証する。
RBFFは、分類器のいくつかのパラメータを除いて、ベースCNNモデルのトレーニングを著しく含まないため、実用的な展開に非常に費用対効果がある。
軽量であるにもかかわらず構築されたモデルは、いくつかの航空シーンデータセットの精度において、最近提案されたモデルより優れている。
関連論文リスト
- Rethinking Pre-trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.6703221234079946]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
この結果から,堅牢な自己教師付き学習(SSL)手法の選択は,ドメイン内事前学習データセットのみに依存するよりも,パフォーマンスに大きな影響を与えることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Feature Selection using Sparse Adaptive Bottleneck Centroid-Encoder [1.2487990897680423]
2つ以上のクラスで識別される特徴を決定するために,新しい非線形モデル SABCE (Sparse Adaptive Bottleneckid-Encoder) を導入する。
このアルゴリズムは、高次元生物学的、画像、音声、加速度センサデータなど、様々な実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2023-06-07T21:37:21Z) - Strong Baseline and Bag of Tricks for COVID-19 Detection of CT Scans [2.696776905220987]
従来のディープラーニングフレームワークは、CT画像のスライス数や解像度の変化によって互換性の問題に直面する。
この制限に対処するために,各CTデータセットに対して新しいスライス選択法を提案する。
上記の方法に加えて、様々な高性能分類モデルについて検討し、最終的には有望な結果を得る。
論文 参考訳(メタデータ) (2023-03-15T09:52:28Z) - Graph-based Extreme Feature Selection for Multi-class Classification
Tasks [7.863638253070439]
本研究は,多クラス分類タスクに適したグラフベースのフィルタ特徴選択手法に焦点をあてる。
分類作業に有用な情報をコードするオリジナルデータのスケッチを作成するために,選択した特徴の数を劇的に削減することを目的としている。
論文 参考訳(メタデータ) (2023-03-03T09:06:35Z) - Cross-layer Navigation Convolutional Neural Network for Fine-grained
Visual Classification [21.223130735592516]
FGVCは、オブジェクトのサブクラスを同じスーパークラスで分類することを目的としている。
FGVCタスクにとって重要な解決策は、地域からターゲットの識別的微妙な情報を見つけることである。
機能融合のための階層間ナビゲーション畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T08:38:27Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。