論文の概要: Classification of Astronomical Bodies by Efficient Layer Fine-Tuning of
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2205.07124v1
- Date: Sat, 14 May 2022 20:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:01:55.533913
- Title: Classification of Astronomical Bodies by Efficient Layer Fine-Tuning of
Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークの高効率層微細調整による天体の分類
- Authors: Sabeesh Ethiraj, Bharath Kumar Bolla
- Abstract要約: SDSS-IVデータセットには、銀河、星、クエーサーなどの様々な天体に関する情報が含まれている。
深層マルチモーダル学習の研究に触発されて、これらのアーキテクチャの微調整に関する研究をさらに拡張し、分類シナリオの効果について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The SDSS-IV dataset contains information about various astronomical bodies
such as Galaxies, Stars, and Quasars captured by observatories. Inspired by our
work on deep multimodal learning, which utilized transfer learning to classify
the SDSS-IV dataset, we further extended our research in the fine tuning of
these architectures to study the effect in the classification scenario.
Architectures such as Resnet-50, DenseNet-121 VGG-16, Xception, EfficientNetB2,
MobileNetV2 and NasnetMobile have been built using layer wise fine tuning at
different levels. Our findings suggest that freezing all layers with Imagenet
weights and adding a final trainable layer may not be the optimal solution.
Further, baseline models and models that have higher number of trainable layers
performed similarly in certain architectures. Model need to be fine tuned at
different levels and a specific training ratio is required for a model to be
termed ideal. Different architectures had different responses to the change in
the number of trainable layers w.r.t accuracies. While models such as
DenseNet-121, Xception, EfficientNetB2 achieved peak accuracies that were
relatively consistent with near perfect training curves, models such as
Resnet-50,VGG-16, MobileNetV2 and NasnetMobile had lower, delayed peak
accuracies with poorly fitting training curves. It was also found that though
mobile neural networks have lesser parameters and model size, they may not
always be ideal for deployment on a low computational device as they had
consistently lower validation accuracies. Customized evaluation metrics such as
Tuning Parameter Ratio and Tuning Layer Ratio are used for model evaluation.
- Abstract(参考訳): SDSS-IVデータセットには、銀河、星、クエーサーなどの様々な天体に関する情報が含まれている。
sdss-ivデータセットの分類に転送学習を利用する深層マルチモーダル学習の研究に着想を得て,これらのアーキテクチャの微調整に関する研究をさらに拡大し,分類シナリオの効果について検討した。
resnet-50, densenet-121 vgg-16, xception, efficientnetb2, mobilenetv2, nasnetmobile といったアーキテクチャは,さまざまなレベルでレイヤワイズなチューニングを使用して構築されている。
以上の結果から,すべての層をImagenet重みで凍結し,最終的なトレーニング可能な層を追加することが最適ではない可能性が示唆された。
さらに、トレーニング可能なレイヤの数が多いベースラインモデルやモデルも、特定のアーキテクチャで同じように実行される。
モデルは異なるレベルで微調整される必要があり、モデルが理想と呼ばれるためには特定のトレーニング比率が必要である。
異なるアーキテクチャは、トレーニング可能なレイヤ数w.r.tアキュラシーの変化に対して異なる反応を持っていた。
DenseNet-121、Xception、EfficientNetB2といったモデルは、ほぼ完璧なトレーニング曲線と比較的一致したピークアキュラシーを達成したが、Resnet-50、VGG-16、MobileNetV2、NasnetMobileといったモデルでは、トレーニング曲線の整合性の低いピークアキュラシーが低かった。
また, 移動型ニューラルネットワークはパラメータやモデルサイズが小さいが, 検証精度が常に低いため, 計算能力の低いデバイスへの展開には必ずしも理想的ではないことが分かった。
モデル評価には、チューニングパラメータ比やチューニングレイヤ比などのカスタム評価指標が使用される。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - A Gradient Boosting Approach for Training Convolutional and Deep Neural
Networks [0.0]
グラディエントブースティング(GB)に基づく畳み込みニューラルネットワーク(CNN)とディープニューラルネットワークの訓練方法を紹介する。
提案モデルでは,同一アーキテクチャの標準CNNとDeep-NNに対して,分類精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-22T12:17:32Z) - Classification of Quasars, Galaxies, and Stars in the Mapping of the
Universe Multi-modal Deep Learning [0.0]
Sloan Digital Sky Survey (SDSS-4)の第4バージョンであるData Release 16データセットは、SDSSデータセットを、マシンラーニングとディープラーニングアーキテクチャを使用して、銀河、星、クエーサーに分類するために使用された。
我々は、新しいマルチモーダルアーキテクチャを構築し、最先端の結果を得る。
論文 参考訳(メタデータ) (2022-05-22T05:17:31Z) - Supervised Training of Siamese Spiking Neural Networks with Earth's
Mover Distance [4.047840018793636]
本研究は,高可逆性シアムニューラルネットモデルをイベントデータ領域に適応させる。
我々はスパイク・トレインとスパイク・ニューラル・ネットワーク(SNN)の間の地球のモーバー距離を最適化するための教師付きトレーニング・フレームワークを導入する。
論文 参考訳(メタデータ) (2022-02-20T00:27:57Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。