論文の概要: Combining Deep Learning with Good Old-Fashioned Machine Learning
- arxiv url: http://arxiv.org/abs/2207.03757v1
- Date: Fri, 8 Jul 2022 08:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:34:55.528864
- Title: Combining Deep Learning with Good Old-Fashioned Machine Learning
- Title(参考訳): ディープラーニングと古き良き機械学習を組み合わせる
- Authors: Moshe Sipper
- Abstract要約: 我々はDeep GOldと呼ばれるディープラーニングと機械学習を組み合わせるためのスタックベースのフレームワークを提案する。
我々のフレームワークは、51個の事前訓練されたディープネットワークを第1レベルのモデルとして、そして10個の機械学習アルゴリズムを第2レベルのモデルとして、アンサンブル選択する。
120の実験のうち、Deep GOldは10つを除いて、元のネットワークの性能を改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comprehensive, stacking-based framework for combining deep
learning with good old-fashioned machine learning, called Deep GOld. Our
framework involves ensemble selection from 51 retrained pretrained deep
networks as first-level models, and 10 machine-learning algorithms as
second-level models. Enabled by today's state-of-the-art software tools and
hardware platforms, Deep GOld delivers consistent improvement when tested on
four image-classification datasets: Fashion MNIST, CIFAR10, CIFAR100, and Tiny
ImageNet. Of 120 experiments, in all but 10 Deep GOld improved the original
networks' performance.
- Abstract(参考訳): 我々は、Deep GOldと呼ばれる、ディープラーニングと昔ながらの機械学習を組み合わせた包括的なスタックベースのフレームワークを提案する。
第1レベルのモデルとして51の訓練済み深層ネットワークから選択し,第2レベルのモデルとして10の機械学習アルゴリズムを用いた。
今日の最先端のソフトウェアツールとハードウェアプラットフォームによって実現されているDeep GOldは、4つのイメージ分類データセット(Fashion MNIST、CIFAR10、CIFAR100、Tiny ImageNet)でテストした場合、一貫した改善を提供する。
120の実験のうち、Deep GOldは10つを除いて、元のネットワークの性能を改善した。
関連論文リスト
- Battle of the Backbones: A Large-Scale Comparison of Pretrained Models
across Computer Vision Tasks [139.3768582233067]
Battle of the Backbones (BoB)は、ニューラルネットワークベースのコンピュータビジョンシステムのためのベンチマークツールである。
視覚変換器(ViT)と自己教師型学習(SSL)がますます人気になっている。
同じアーキテクチャと同じようなサイズの事前トレーニングデータセット上でのアップルとアプリケーションの比較では、SSLバックボーンは極めて競争力があることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T18:23:58Z) - Masked Autoencoders are Efficient Class Incremental Learners [64.90846899051164]
クラスインクリメンタルラーニング(CIL)は,過去の知識の破滅的な忘れを回避しつつ,新しいクラスを逐次学習することを目的としている。
本稿では,CIL の学習に Masked Autoencoders (MAEs) を用いることを提案する。
論文 参考訳(メタデータ) (2023-08-24T02:49:30Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - Learning Customized Visual Models with Retrieval-Augmented Knowledge [104.05456849611895]
我々は、ターゲットドメイン用にカスタマイズされたビジュアルモデルを構築するための、関連するWeb知識を取得するためのフレームワークであるREACTを提案する。
我々は、Webスケールデータベースから最も関連性の高い画像テキストペアを外部知識として検索し、元の重みをすべて凍結しながら、新しいモジュール化されたブロックをトレーニングするだけで、モデルをカスタマイズすることを提案する。
REACTの有効性は、ゼロ、少数、フルショット設定を含む分類、検索、検出、セグメンテーションタスクに関する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2023-01-17T18:59:06Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Deep Network Ensemble Learning applied to Image Classification using CNN
Trees [1.8782750537161614]
本稿では,複数の深層ネットワークを用いた簡易,逐次,効率的,アンサンブル学習手法を提案する。
アンサンブルで使用されるディープネットワークはResNet50である。
当社のアプローチは、ImageNetデータセット上のすべての実験において、ベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-07-23T07:58:25Z) - Optimization of Image Embeddings for Few Shot Learning [0.0]
私たちは、それらを生成するのに要する時間とコストで作られた埋め込みの品質を改善します。
提案した実装は,Omniglotデータセット上での1ショットと5ショットの学習において,既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-04T22:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。