論文の概要: Deep Network Ensemble Learning applied to Image Classification using CNN
Trees
- arxiv url: http://arxiv.org/abs/2008.00829v1
- Date: Thu, 23 Jul 2020 07:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:36:24.699201
- Title: Deep Network Ensemble Learning applied to Image Classification using CNN
Trees
- Title(参考訳): CNN木を用いた画像分類に応用したディープネットワークアンサンブル学習
- Authors: Abdul Mueed Hafiz and Ghulam Mohiuddin Bhat
- Abstract要約: 本稿では,複数の深層ネットワークを用いた簡易,逐次,効率的,アンサンブル学習手法を提案する。
アンサンブルで使用されるディープネットワークはResNet50である。
当社のアプローチは、ImageNetデータセット上のすべての実験において、ベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 1.8782750537161614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional machine learning approaches may fail to perform satisfactorily
when dealing with complex data. In this context, the importance of data mining
evolves w.r.t. building an efficient knowledge discovery and mining framework.
Ensemble learning is aimed at integration of fusion, modeling and mining of
data into a unified model. However, traditional ensemble learning methods are
complex and have optimization or tuning problems. In this paper, we propose a
simple, sequential, efficient, ensemble learning approach using multiple deep
networks. The deep network used in the ensembles is ResNet50. The model draws
inspiration from binary decision/classification trees. The proposed approach is
compared against the baseline viz. the single classifier approach i.e. using a
single multiclass ResNet50 on the ImageNet and Natural Images datasets. Our
approach outperforms the baseline on all experiments on the ImageNet dataset.
Code is available in https://github.com/mueedhafiz1982/CNNTreeEnsemble.git
- Abstract(参考訳): 従来の機械学習アプローチは、複雑なデータを扱う場合、十分に機能しない可能性がある。
この文脈では、データマイニングの重要性が進化し、効率的な知識発見とマイニングの枠組みを構築する。
アンサンブル学習は、データの融合、モデリング、マイニングを統一モデルに統合することを目的としている。
しかし、従来のアンサンブル学習法は複雑であり、最適化やチューニングの問題がある。
本稿では,複数の深層ネットワークを用いた簡便でシーケンシャルで効率的なアンサンブル学習手法を提案する。
アンサンブルで使われるディープネットワークはresnet50である。
このモデルは二分決定/分類木からインスピレーションを得ている。
提案手法は,イメージネットおよびナチュラルイメージデータセット上の単一マルチクラスResNet50を用いた単一分類器アプローチである。
私たちのアプローチは、imagenetデータセットのすべての実験でベースラインを上回るものです。
コードはhttps://github.com/mueedhafiz1982/cnntreeensemble.gitで入手できる。
関連論文リスト
- Convolutional Networks as Extremely Small Foundation Models: Visual Prompting and Theoretical Perspective [1.79487674052027]
本稿では,汎用的なディープネットワークを新たなタスクに適応させるプロンプトモジュールを設計する。
学習理論によって駆動され、同じトレーニングエラーの下でより良く一般化されるように、可能な限りシンプルなモジュールを誘導する。
実際、SDForestは非常に低コストで、CPUでもリアルタイムに実現できる。
論文 参考訳(メタデータ) (2024-09-03T12:34:23Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - On the Effectiveness of Neural Ensembles for Image Classification with
Small Datasets [2.3478438171452014]
本稿では,クラスごとのラベル付き例数件による画像分類問題に着目し,比較的小さなネットワークのアンサンブルを用いてデータ効率を向上させる。
比較的浅いネットワークをアンサンブルすることは、小さなデータセットから学ぶための現在の最先端のアプローチよりも一般的に優れている、単純だが効果的な手法であることを示す。
論文 参考訳(メタデータ) (2021-11-29T12:34:49Z) - Task-Adaptive Neural Network Retrieval with Meta-Contrastive Learning [34.27089256930098]
本稿では,与えられたタスクに対して最適な事前学習ネットワークを検索するニューラルネットワーク検索手法を提案する。
データセットとネットワークとの類似性を最大化するために、コントラスト損失を伴うクロスモーダルな潜在空間をメタラーニングすることによって、このフレームワークを訓練する。
提案手法の有効性を,既存のNASベースラインに対して10個の実世界のデータセット上で検証する。
論文 参考訳(メタデータ) (2021-03-02T06:30:51Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Cream of the Crop: Distilling Prioritized Paths For One-Shot Neural
Architecture Search [60.965024145243596]
ワンショット重み共有手法は、高効率と競争性能のため、最近、ニューラルアーキテクチャ探索において大きな注目を集めている。
この問題を軽減するため, 単純で効果的な蒸留法を提案する。
本稿では、訓練中に優れた性能を示すアーキテクチャ候補を指す優先順位付けパスの概念を紹介する。
優先順位付けされた経路は、その性能や複雑さに応じて、ハエで変化するため、最終的な経路は作物のクリームである。
論文 参考訳(メタデータ) (2020-10-29T17:55:05Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Neural Networks Are More Productive Teachers Than Human Raters: Active
Mixup for Data-Efficient Knowledge Distillation from a Blackbox Model [57.41841346459995]
我々は,ブラックボックス教師モデルから知識を抽出し,学生の深層ニューラルネットワークを視覚認識のために訓練する方法を,データ効率のよい方法で研究する。
混合学習とアクティブラーニングを融合した手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T05:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。