論文の概要: Training Feedforward Neural Networks with Bayesian Hyper-Heuristics
- arxiv url: http://arxiv.org/abs/2303.16912v1
- Date: Wed, 29 Mar 2023 11:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 15:40:37.382400
- Title: Training Feedforward Neural Networks with Bayesian Hyper-Heuristics
- Title(参考訳): ベイジアンハイパーヒューリスティックスを用いたフィードフォワードニューラルネットワークの訓練
- Authors: Arn\'e Schreuder, Anna Bosman, Andries Engelbrecht, Christopher
Cleghorn
- Abstract要約: 本研究は,フィードフォワードネットワーク(FFNN)のトレーニングに使用される,新規な人口ベースベイズハイパーヒューリスティック(BHH)を紹介する。
BHHの性能は、検索の振る舞いが異なる10の一般的な低レベルニューラルネットワークと比較される。
BHHはFFNNをうまく訓練でき、訓練プロセスの様々な段階でFFNNを訓練する最良の方法を見つけるための自動化された方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of training feedforward neural networks (FFNNs) can benefit from
an automated process where the best heuristic to train the network is sought
out automatically by means of a high-level probabilistic-based heuristic. This
research introduces a novel population-based Bayesian hyper-heuristic (BHH)
that is used to train feedforward neural networks (FFNNs). The performance of
the BHH is compared to that of ten popular low-level heuristics, each with
different search behaviours. The chosen heuristic pool consists of classic
gradient-based heuristics as well as meta-heuristics (MHs). The empirical
process is executed on fourteen datasets consisting of classification and
regression problems with varying characteristics. The BHH is shown to be able
to train FFNNs well and provide an automated method for finding the best
heuristic to train the FFNNs at various stages of the training process.
- Abstract(参考訳): feedforward neural networks(ffnns)のトレーニングプロセスは、ネットワークをトレーニングする最良のヒューリスティックが、高レベルの確率ベースのヒューリスティックによって自動的に探される自動プロセスから恩恵を受けることができる。
本研究は、フィードフォワードニューラルネットワーク(FFNN)のトレーニングに使用される、新規な人口ベースベイズハイパーヒューリスティック(BHH)を紹介する。
BHHの性能は10の人気の低レベルヒューリスティックと比較され、それぞれ異なる検索動作を持つ。
選択されたヒューリスティックプールは古典的な勾配に基づくヒューリスティックとメタヒューリスティック(MH)で構成されている。
経験的プロセスは、異なる特性を持つ分類と回帰問題からなる14のデータセット上で実行される。
BHHはFFNNの訓練をうまく行うことができ、訓練プロセスの様々な段階でFFNNを訓練するための最良のヒューリスティックを見つけるための自動化された方法を提供する。
関連論文リスト
- Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - Path classification by stochastic linear recurrent neural networks [2.5499055723658097]
トレーニングや分類作業に利用されるユニークな情報として,RNNが供給される経路の部分的なシグネチャを保持することを示す。
これらのRNNは訓練が容易で堅牢であり、これらの観測を合成データと実データの両方で数値実験で裏付けるものである、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-06T12:59:12Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z) - A Hybrid Method for Training Convolutional Neural Networks [3.172761915061083]
本稿では,畳み込みニューラルネットワークの学習にバックプロパゲーションと進化戦略の両方を用いるハイブリッド手法を提案する。
画像分類のタスクにおいて,提案手法は定期的な訓練において改善可能であることを示す。
論文 参考訳(メタデータ) (2020-04-15T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。