論文の概要: CIFAR-10 Image Classification Using Feature Ensembles
- arxiv url: http://arxiv.org/abs/2002.03846v2
- Date: Thu, 27 Feb 2020 22:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:33:26.126670
- Title: CIFAR-10 Image Classification Using Feature Ensembles
- Title(参考訳): CIFAR-10 特徴アンサンブルを用いた画像分類
- Authors: Felipe O. Giuste and Juan C. Vizcarra
- Abstract要約: 我々は、手動と深層学習の両方から異なる画像特徴源の組み合わせを利用して、パブリックなCIFAR-10画像データセットから画像を分類する。
向き勾配(HOG)と画素強度のヒストグラムは, それぞれ53%, 59%の分類精度を示した。
ImageNetトレーニング重量とCIFAR-10最適化モデル(CIFAR-VGG)を備えたVGG16は、画像分類(それぞれ60%と93.43%の精度)をさらに改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image classification requires the generation of features capable of detecting
image patterns informative of group identity. The objective of this study was
to classify images from the public CIFAR-10 image dataset by leveraging
combinations of disparate image feature sources from both manual and deep
learning approaches. Histogram of oriented gradients (HOG) and pixel
intensities successfully inform classification (53% and 59% classification
accuracy, respectively), yet there is much room for improvement. VGG16 with
ImageNet trained weights and a CIFAR-10 optimized model (CIFAR-VGG) further
improve upon image classification (60% and 93.43% accuracy, respectively). We
further improved classification by utilizing transfer learning to re-establish
optimal network weights for VGG16 (TL-VGG) and Inception ResNet v2
(TL-Inception) resulting in significant performance increases (85% and 90.74%,
respectively), yet fail to surpass CIFAR-VGG. We hypothesized that if each
generated feature set obtained some unique insight into the classification
problem, then combining these features would result in greater classification
accuracy, surpassing that of CIFAR-VGG. Upon selection of the top 1000
principal components from TL-VGG, TL-Inception, HOG, pixel intensities, and
CIFAR-VGG, we achieved testing accuracy of 94.6%, lending support to our
hypothesis.
- Abstract(参考訳): 画像分類は、グループ識別に有用な画像パターンを検出できる特徴の生成を必要とする。
本研究の目的は,手動と深層学習の両方で異なる画像特徴源の組み合わせを利用して,公開CIFAR-10画像データセットから画像の分類を行うことである。
向き勾配 (HOG) と画素強度のヒストグラムは, それぞれ53%, 59%の分類精度を示したが, 改善の余地は大きい。
ImageNetのトレーニングされた重量とCIFAR-10最適化モデル(CIFAR-VGG)を備えたVGG16は、画像分類(それぞれ60%と93.43%の精度)をさらに改善した。
さらに,VGG16 (TL-VGG) と Inception ResNet v2 (TL-Inception) の最適ネットワークウェイトを再確立するために転送学習を活用して分類を改良し,それぞれ 85% と 90.74% の大幅な性能向上を実現したが,CIFAR-VGG を超えなかった。
生成した各特徴集合が分類問題に関するユニークな洞察を得た場合、これらの特徴を組み合わせることで、CIFAR-VGGよりも高い分類精度が得られると仮定した。
TL-VGG,TL-Inception,HOG,ピクセルインテンシティ,CIFAR-VGGから上位1000の主成分を選択すると、94.6%の精度でテストを行い、仮説を支持した。
関連論文リスト
- Gradient-Free Classifier Guidance for Diffusion Model Sampling [4.450496470631169]
Gradient-free Guidance (GFCG) 法はクラス予測精度を一貫して改善する。
ImageNet 512$times$512では、記録的な$FD_textDINOv2$23.09を達成すると同時に、ATG (90.2%) と比較して高い分類精度 (94.3%) を達成する。
論文 参考訳(メタデータ) (2024-11-23T00:22:21Z) - Multi-method Integration with Confidence-based Weighting for Zero-shot Image Classification [1.7265013728931]
本稿では,ゼロショット学習(ZSL)のための新しいフレームワークを提案する。
本稿では,ZSLを扱うためのモデルの性能向上のための3つの戦略を提案する。
論文 参考訳(メタデータ) (2024-05-03T15:02:41Z) - ClusterFormer: Clustering As A Universal Visual Learner [80.79669078819562]
CLUSTERFORMERは、トランスフォーマーを用いたCLUSTERingパラダイムに基づくユニバーサルビジョンモデルである。
不均一な視覚タスクに様々なレベルのクラスタリングの粒度で対処することができる。
その有効性のために、コンピュータビジョンにおける普遍モデルにおけるパラダイムシフトを触媒できることを期待します。
論文 参考訳(メタデータ) (2023-09-22T22:12:30Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Learning Customized Visual Models with Retrieval-Augmented Knowledge [104.05456849611895]
我々は、ターゲットドメイン用にカスタマイズされたビジュアルモデルを構築するための、関連するWeb知識を取得するためのフレームワークであるREACTを提案する。
我々は、Webスケールデータベースから最も関連性の高い画像テキストペアを外部知識として検索し、元の重みをすべて凍結しながら、新しいモジュール化されたブロックをトレーニングするだけで、モデルをカスタマイズすることを提案する。
REACTの有効性は、ゼロ、少数、フルショット設定を含む分類、検索、検出、セグメンテーションタスクに関する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2023-01-17T18:59:06Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Exploring Hierarchical Graph Representation for Large-Scale Zero-Shot
Image Classification [21.406839159387946]
本稿では,HGR-Netと呼ばれる信頼度に基づく分類手法のための階層型グラフ表現フレームワークを提案する。
実験の結果,階層的概念知識を用いてHGR-Netがクラス継承関係を把握できることが確認された。
論文 参考訳(メタデータ) (2022-03-02T20:05:00Z) - Improved Multiscale Vision Transformers for Classification and Detection [80.64111139883694]
画像と映像の分類とオブジェクト検出のための統合アーキテクチャとして,MViT(Multiscale Vision Transformer)について検討した。
分割された相対的な位置埋め込みと残留プール接続を組み込んだMViTの改良版を提案する。
我々は、このアーキテクチャを5つのサイズでインスタンス化し、ImageNet分類、COCO検出およびKineeticsビデオ認識のために評価する。
論文 参考訳(メタデータ) (2021-12-02T18:59:57Z) - Vector-quantized Image Modeling with Improved VQGAN [93.8443646643864]
本稿では,自動回帰的に画像トークンを予測するためにトランスフォーマーを事前訓練するベクトル量子化画像モデリング手法を提案する。
まず,バニラVQGANに対して,アーキテクチャからコードブック学習までの複数の改良を提案する。
ImageNetで256x256解像度でトレーニングすると、175.1のインセプションスコア(IS)と4.17のFrechet Inception Distance(FID)を達成する。
論文 参考訳(メタデータ) (2021-10-09T18:36:00Z) - Contrastive Learning with Stronger Augmentations [63.42057690741711]
本論文では,現在のコントラスト学習のアプローチを補完する,より強い拡張(A)によるコントラスト学習という汎用フレームワークを提案する。
ここでは、表現バンク上の弱強調画像と強拡張画像との間の分布のばらつきを利用して、強拡張クエリの検索を監督する。
実験では、強力な画像からの情報により、パフォーマンスが大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T18:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。