論文の概要: Benchmark Analysis of Various Pre-trained Deep Learning Models on ASSIRA
Cats and Dogs Dataset
- arxiv url: http://arxiv.org/abs/2401.04666v1
- Date: Tue, 9 Jan 2024 16:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 15:11:31.873122
- Title: Benchmark Analysis of Various Pre-trained Deep Learning Models on ASSIRA
Cats and Dogs Dataset
- Title(参考訳): ASSIRA猫と犬のデータセットを用いた各種事前学習モデルのベンチマーク解析
- Authors: Galib Muhammad Shahriar Himel, Md. Masudul Islam
- Abstract要約: ASSIRA Cats & Dogsデータセットは、全体的な受け入れとベンチマーク標準のためにこの研究で使用されている。
各種ベンチマークと損失関数を用いて,事前学習モデルの比較を行った。
この実験から、NASNet Largeを用いて99.65%の最高精度が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the most basic application and implementation of deep learning, image
classification has grown in popularity. Various datasets are provided by
renowned data science communities for benchmarking machine learning algorithms
and pre-trained models. The ASSIRA Cats & Dogs dataset is one of them and is
being used in this research for its overall acceptance and benchmark standards.
A comparison of various pre-trained models is demonstrated by using different
types of optimizers and loss functions. Hyper-parameters are changed to gain
the best result from a model. By applying this approach, we have got higher
accuracy without major changes in the training model. To run the experiment, we
used three different computer architectures: a laptop equipped with NVIDIA
GeForce GTX 1070, a laptop equipped with NVIDIA GeForce RTX 3080Ti, and a
desktop equipped with NVIDIA GeForce RTX 3090. The acquired results demonstrate
supremacy in terms of accuracy over the previously done experiments on this
dataset. From this experiment, the highest accuracy which is 99.65% is gained
using the NASNet Large.
- Abstract(参考訳): ディープラーニングの最も基本的な応用と実装として、画像分類の人気が高まっている。
さまざまなデータセットは、機械学習アルゴリズムと事前訓練されたモデルのベンチマークのための有名なデータサイエンスコミュニティによって提供される。
ASSIRA Cats & Dogsデータセットはその1つであり、全体的な受け入れとベンチマーク標準のためにこの研究で使用されている。
各種オプティマイザと損失関数を用いて,様々な事前学習モデルの比較を行った。
ハイパーパラメータはモデルから最高の結果を得るために変更される。
このアプローチを適用することで、トレーニングモデルに大きな変更を加えることなく、精度が向上しました。
実験には、nvidia geforce gtx 1070搭載のラップトップ、nvidia geforce rtx 3080ti搭載のラップトップ、nvidia geforce rtx 3090搭載のデスクトップの3つの異なるコンピュータアーキテクチャを使用しました。
得られた結果は、このデータセットで行った実験よりも精度の面で優位性を示す。
この実験から、NASNet Largeを用いて99.65%の最高精度が得られる。
関連論文リスト
- Asymmetric Masked Distillation for Pre-Training Small Foundation Models [52.56257450614992]
自己教師型基礎モデルは、マスク付きオートエンコーディングの事前学習パラダイムのおかげで、コンピュータビジョンにおいて大きな可能性を秘めている。
本稿では、下流タスクに効率的に適応できる比較的小さな視覚変換器モデルを事前学習することに焦点を当てる。
自動符号化による比較的小さなモデルの事前学習のための新しい非対称マスク蒸留(AMD)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-06T14:44:34Z) - Yin Yang Convolutional Nets: Image Manifold Extraction by the Analysis
of Opposites [1.1560177966221703]
Yin Yang Convolutional Networkは、視覚多様体を抽出するアーキテクチャである。
最初のモデルでは、テスト精度93.32%に達し、このカテゴリーでは古いSOTAよりも0.8%高かった。
ImageNetでも分析を行い、1.6Mパラメータで66.49%の精度で検証しました。
論文 参考訳(メタデータ) (2023-10-24T19:48:07Z) - CUDA: Convolution-based Unlearnable Datasets [77.70422525613084]
現代のディープラーニングモデルの大規模なトレーニングは、Web上の公開データに大きく依存している。
最近の研究は、小さくて特殊なノイズを加えることによって、ディープラーニングモデルのためのデータを作ることを目的としている。
これらの手法は、敵の訓練(AT)に対して脆弱であり、または/または計算的に重い。
論文 参考訳(メタデータ) (2023-03-07T22:57:23Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - A contextual analysis of multi-layer perceptron models in classifying
hand-written digits and letters: limited resources [0.0]
我々は,前処理や特徴抽出を行わずに,終端から終端までのバニラニューラルネットワーク(MLP)アプローチを純粋に検証した。
基礎的なデータマイニング操作は,計算時間の観点からモデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2021-07-05T04:30:37Z) - Overhead-MNIST: Machine Learning Baselines for Image Classification [0.0]
23の機械学習アルゴリズムをトレーニングし、ベースライン比較メトリクスを確立する。
Overhead-MNISTデータセットは、ユビキタスなMNISTの手書き桁に似たスタイルの衛星画像の集合である。
本稿では,エッジの展開性および今後の性能向上のためのベースラインとして,全体的な性能向上アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-07-01T13:30:39Z) - Facial Age Estimation using Convolutional Neural Networks [0.0]
本論文は,ノルウェー科学技術大学における機械学習の学生プロジェクトの一部である。
5つの畳み込み層と3つの完全連結層を持つ深い畳み込みニューラルネットワークを提示し、画像に基づく個人の年齢を推定する。
論文 参考訳(メタデータ) (2021-05-14T10:09:47Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - The Effect of Data Ordering in Image Classification [0.0]
本稿では,これらの機械に供給する成分であるデータに焦点をあてる。
我々は、ImageNetデータセットを用いた画像分類タスクの実験を行い、より高い分類精度を得るために、いくつかのデータ順序付けが他のデータよりも優れていることを示す。
ここでの私たちのゴールは、パラメータやモデルアーキテクチャだけでなく、データ順序付けがより良い結果を得る上で有意であることを示すことです。
論文 参考訳(メタデータ) (2020-01-08T20:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。