論文の概要: An evaluation of pre-trained models for feature extraction in image
classification
- arxiv url: http://arxiv.org/abs/2310.02037v1
- Date: Tue, 3 Oct 2023 13:28:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 14:08:12.268618
- Title: An evaluation of pre-trained models for feature extraction in image
classification
- Title(参考訳): 画像分類における特徴抽出のための事前学習モデルの評価
- Authors: Erick da Silva Puls, Matheus V. Todescato, Joel L. Carbonera
- Abstract要約: この研究は、画像分類タスクにおける特徴抽出のために、様々な事前学習ニューラルネットワークの性能を比較することを目的としている。
以上の結果から,CLIP-ResNet50モデルに類似した性能を持つが,可変性が低いCLIP-ViT-BとViT-H-14により,データセットに沿って最高の汎用性能が達成されたことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, we have witnessed a considerable increase in performance in
image classification tasks. This performance improvement is mainly due to the
adoption of deep learning techniques. Generally, deep learning techniques
demand a large set of annotated data, making it a challenge when applying it to
small datasets. In this scenario, transfer learning strategies have become a
promising alternative to overcome these issues. This work aims to compare the
performance of different pre-trained neural networks for feature extraction in
image classification tasks. We evaluated 16 different pre-trained models in
four image datasets. Our results demonstrate that the best general performance
along the datasets was achieved by CLIP-ViT-B and ViT-H-14, where the
CLIP-ResNet50 model had similar performance but with less variability.
Therefore, our study provides evidence supporting the choice of models for
feature extraction in image classification tasks.
- Abstract(参考訳): 近年,画像分類タスクの性能が大幅に向上している。
このパフォーマンス改善は主に、ディープラーニング技術の採用によるものです。
一般的に、ディープラーニング技術は大量の注釈付きデータを必要とするため、小さなデータセットに適用する上では困難である。
このシナリオでは、トランスファー学習戦略は、これらの問題を克服するための有望な代替手段になっています。
本研究は,画像分類タスクにおける特徴抽出のために,学習済みニューラルネットワークの性能を比較することを目的としている。
4つの画像データセットで16種類の事前学習モデルを評価した。
その結果,clip-vit-b と vit-h-14 は,clip-resnet50 モデルと同等の性能を示したが,可変性は低かった。
そこで本研究では,画像分類作業における特徴抽出モデルの選択を支持する証拠を提供する。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Intra-task Mutual Attention based Vision Transformer for Few-Shot Learning [12.5354658533836]
人間は、ほんのわずかの例に晒された後に、新しい、目に見えない画像を正確に分類する能力を持っている。
人工ニューラルネットワークモデルでは、限られたサンプルを持つ2つのイメージを区別する最も関連性の高い特徴を決定することが課題である。
本稿では,サポートとクエリサンプルをパッチに分割するタスク内相互注意手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T02:02:57Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Learning Customized Visual Models with Retrieval-Augmented Knowledge [104.05456849611895]
我々は、ターゲットドメイン用にカスタマイズされたビジュアルモデルを構築するための、関連するWeb知識を取得するためのフレームワークであるREACTを提案する。
我々は、Webスケールデータベースから最も関連性の高い画像テキストペアを外部知識として検索し、元の重みをすべて凍結しながら、新しいモジュール化されたブロックをトレーニングするだけで、モデルをカスタマイズすることを提案する。
REACTの有効性は、ゼロ、少数、フルショット設定を含む分類、検索、検出、セグメンテーションタスクに関する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2023-01-17T18:59:06Z) - Combining Image Features and Patient Metadata to Enhance Transfer
Learning [0.0]
画像特徴のみを用いる場合の分類作業における6つの最先端ディープニューラルネットワークの性能と,これらを患者のメタデータと組み合わせた場合の比較を行った。
以上の結果から,この性能向上はディープネットワークの一般的な特性である可能性が示唆され,他の分野での探索が望まれる。
論文 参考訳(メタデータ) (2021-10-08T15:43:31Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z) - Unsupervised machine learning via transfer learning and k-means
clustering to classify materials image data [0.0]
本稿では,画像分類のための高性能な教師なし機械学習システムの構築,利用,評価について述べる。
我々は、自然画像のImageNetデータセット上に事前訓練されたVGG16畳み込みニューラルネットワークを用いて、各マイクログラフの特徴表現を抽出する。
このアプローチは、99.4% pm 0.16%$の精度を実現し、結果として得られたモデルは、再トレーニングせずに、新しい画像の分類に使うことができる。
論文 参考訳(メタデータ) (2020-07-16T14:36:04Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。