論文の概要: Classification of Quasars, Galaxies, and Stars in the Mapping of the
Universe Multi-modal Deep Learning
- arxiv url: http://arxiv.org/abs/2205.10745v1
- Date: Sun, 22 May 2022 05:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:15:54.342737
- Title: Classification of Quasars, Galaxies, and Stars in the Mapping of the
Universe Multi-modal Deep Learning
- Title(参考訳): 宇宙多モード深層学習のマッピングにおけるクエーサー、銀河、星の分類
- Authors: Sabeesh Ethiraj, Bharath Kumar Bolla
- Abstract要約: Sloan Digital Sky Survey (SDSS-4)の第4バージョンであるData Release 16データセットは、SDSSデータセットを、マシンラーニングとディープラーニングアーキテクチャを使用して、銀河、星、クエーサーに分類するために使用された。
我々は、新しいマルチモーダルアーキテクチャを構築し、最先端の結果を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, the fourth version the Sloan Digital Sky Survey (SDSS-4), Data
Release 16 dataset was used to classify the SDSS dataset into galaxies, stars,
and quasars using machine learning and deep learning architectures. We
efficiently utilize both image and metadata in tabular format to build a novel
multi-modal architecture and achieve state-of-the-art results. In addition, our
experiments on transfer learning using Imagenet weights on five different
architectures (Resnet-50, DenseNet-121 VGG-16, Xception, and EfficientNet)
reveal that freezing all layers and adding a final trainable layer may not be
an optimal solution for transfer learning. It is hypothesized that higher the
number of trainable layers, higher will be the training time and accuracy of
predictions. It is also hypothesized that any subsequent increase in the number
of training layers towards the base layers will not increase in accuracy as the
pre trained lower layers only help in low level feature extraction which would
be quite similar in all the datasets. Hence the ideal level of trainable layers
needs to be identified for each model in respect to the number of parameters.
For the tabular data, we compared classical machine learning algorithms
(Logistic Regression, Random Forest, Decision Trees, Adaboost, LightGBM etc.,)
with artificial neural networks. Our works shed new light on transfer learning
and multi-modal deep learning architectures. The multi-modal architecture not
only resulted in higher metrics (accuracy, precision, recall, F1 score) than
models using only image data or tabular data. Furthermore, multi-modal
architecture achieved the best metrics in lesser training epochs and improved
the metrics on all classes.
- Abstract(参考訳): 本稿では,Sloan Digital Sky Survey (SDSS-4)の第4版であるData Release 16データセットを用いて,SDSSデータセットを,機械学習とディープラーニングアーキテクチャを用いて銀河,星,クエーサーに分類した。
画像とメタデータの両方を表形式で効率的に活用し,新しいマルチモーダルアーキテクチャを構築し,最先端の結果を得る。
さらに,5つの異なるアーキテクチャ (resnet-50, densenet-121 vgg-16, xception, efficientnet) におけるimagenet重みを用いたトランスファー学習実験により,すべてのレイヤの凍結と最終トレーサブル層の追加がトランスファー学習の最適解にはなり得ないことが判明した。
トレーニング可能なレイヤーの数が増えるほど、予測のトレーニング時間と精度が高くなると仮定されている。
トレーニング済みの下位層がすべてのデータセットで非常によく似た低レベルの特徴抽出にのみ役立つため、その後のトレーニングレイヤのベース層への増加は正確さを増さない、という仮説もある。
したがって、トレーニング可能なレイヤの理想的なレベルは、パラメータの数に関して各モデルに対して識別する必要があります。
表のデータについては,従来の機械学習アルゴリズム(ロジスティック回帰,ランダムフォレスト,決定木,アダブースト,ライトGBMなど)をニューラルネットワークと比較した。
私たちの研究は、転送学習とマルチモーダルディープラーニングアーキテクチャに新しい光を当てました。
マルチモーダルアーキテクチャは、画像データや表データのみを使用したモデルよりも高いメトリクス(精度、精度、リコール、F1スコア)を生んだ。
さらに、マルチモーダルアーキテクチャは、より少ないトレーニング時代の最高のメトリクスを達成し、すべてのクラスのメトリクスを改善しました。
関連論文リスト
- Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - Classification of Astronomical Bodies by Efficient Layer Fine-Tuning of
Deep Neural Networks [0.0]
SDSS-IVデータセットには、銀河、星、クエーサーなどの様々な天体に関する情報が含まれている。
深層マルチモーダル学習の研究に触発されて、これらのアーキテクチャの微調整に関する研究をさらに拡張し、分類シナリオの効果について検討した。
論文 参考訳(メタデータ) (2022-05-14T20:08:19Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - LV-BERT: Exploiting Layer Variety for BERT [85.27287501885807]
我々は,事前学習モデルに有益である層型集合に畳み込みを導入する。
次に、事前学習による進化的アルゴリズムを採用し、最適なアーキテクチャを求める。
提案手法により得られたLV-BERTモデルは,様々な下流タスクにおいてBERTとその変種より優れる。
論文 参考訳(メタデータ) (2021-06-22T13:20:14Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。