論文の概要: Deep Learning with a Classifier System: Initial Results
- arxiv url: http://arxiv.org/abs/2103.01118v1
- Date: Mon, 1 Mar 2021 16:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:11:11.850660
- Title: Deep Learning with a Classifier System: Initial Results
- Title(参考訳): 分類器システムによる深層学習:初期結果
- Authors: Richard J. Preen and Larry Bull
- Abstract要約: 本稿では,ディープニューラルネットワークを用いた適応計算が可能な学習分類器システムを用いた最初の結果を示す。
最大予測誤差を達成した後、性能を維持しつつ、重みとユニットの数を自動で削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents the first results from using a learning classifier
system capable of performing adaptive computation with deep neural networks.
Individual classifiers within the population are composed of two neural
networks. The first acts as a gating or guarding component, which enables the
conditional computation of an associated deep neural network on a per instance
basis. Self-adaptive mutation is applied upon reproduction and prediction
networks are refined with stochastic gradient descent during lifetime learning.
The use of fully-connected and convolutional layers are evaluated on
handwritten digit recognition tasks where evolution adapts (i) the gradient
descent learning rate applied to each layer (ii) the number of units within
each layer, i.e., the number of fully-connected neurons and the number of
convolutional kernel filters (iii) the connectivity of each layer, i.e.,
whether each weight is active (iv) the weight magnitudes, enabling escape from
local optima. The system automatically reduces the number of weights and units
while maintaining performance after achieving a maximum prediction error.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークを用いた適応計算が可能な学習分類器システムを用いた最初の結果を示す。
集団内の個々の分類器は2つのニューラルネットワークで構成されている。
1つ目はゲーティングまたはガードコンポーネントとして動作し、インスタンスごとに関連するディープニューラルネットワークの条件付き計算を可能にする。
自己適応突然変異は再生に応用され、予測ネットワークは生涯学習中に確率勾配降下で洗練される。
完全連結型及び畳み込み型層の使用は、(i)各層に適用される勾配降下学習率、(ii)各層内の単位数、すなわち、完全連結型ニューロンの数と畳み込み型カーネルフィルタの数、(iii)各層の接続数、(iv)各重みがアクティブであるかどうか、(iv)局所最適度からの脱出を可能にする手書きデジタル認識タスクにおいて評価される。
最大予測誤差を達成した後、性能を維持しつつ、重みとユニットの数を自動で削減する。
関連論文リスト
- SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Classified as unknown: A novel Bayesian neural network [0.0]
完全連結ニューラルネットワークのための効率の良いベイズ学習アルゴリズムを開発した。
多層パーセプトロンから多層パーセプトロンへの二元分類のための単一パーセプトロンのアルゴリズムを一般化する。
論文 参考訳(メタデータ) (2023-01-31T04:27:09Z) - WLD-Reg: A Data-dependent Within-layer Diversity Regularizer [98.78384185493624]
ニューラルネットワークは、勾配に基づく最適化と共同で訓練された階層構造に配置された複数の層で構成されている。
我々は、この従来の「中間層」フィードバックを補うために、同じ層内での活性化の多様性を促進するために、追加の「中間層」フィードバックを補うことを提案する。
本稿では,提案手法が複数のタスクにおける最先端ニューラルネットワークモデルの性能を向上させることを実証した広範な実証研究を提案する。
論文 参考訳(メタデータ) (2023-01-03T20:57:22Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z) - Online Sequential Extreme Learning Machines: Features Combined From
Hundreds of Midlayers [0.0]
本稿では階層型オンラインシーケンシャル学習アルゴリズム(H-OS-ELM)を提案する。
アルゴリズムは、一定のブロックサイズまたは異なるブロックサイズでチャンクごとにチャンクを学習することができる。
論文 参考訳(メタデータ) (2020-06-12T00:50:04Z) - An Effective and Efficient Initialization Scheme for Training
Multi-layer Feedforward Neural Networks [5.161531917413708]
本稿では,有名なスタインの身元に基づく新しいネットワーク初期化手法を提案する。
提案したSteinGLM法は、ニューラルネットワークのトレーニングによく使われる他の一般的な手法よりもはるかに高速で高精度であることを示す。
論文 参考訳(メタデータ) (2020-05-16T16:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。