論文の概要: Incremental Evolution and Development of Deep Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2004.00302v1
- Date: Wed, 1 Apr 2020 09:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:20:42.710238
- Title: Incremental Evolution and Development of Deep Artificial Neural Networks
- Title(参考訳): ディープニューラルネットワークの漸進的進化と開発
- Authors: Filipe Assun\c{c}\~ao, Nuno Louren\c{c}o, Bernardete Ribeiro, Penousal
Machado
- Abstract要約: 我々は、Fast Deep Evolutionary Network Structured Representation (Fast-DENSER)をインクリメンタル開発に拡張する。
その結果、インクリメンタルな開発によって生成されたモデルの平均性能は、非インクリメンタルな平均性能よりも統計的に優れていることがわかった。
- 参考スコア(独自算出の注目度): 1.6631602844999722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NeuroEvolution (NE) methods are known for applying Evolutionary Computation
to the optimisation of Artificial Neural Networks(ANNs). Despite aiding
non-expert users to design and train ANNs, the vast majority of NE approaches
disregard the knowledge that is gathered when solving other tasks, i.e.,
evolution starts from scratch for each problem, ultimately delaying the
evolutionary process. To overcome this drawback, we extend Fast Deep
Evolutionary Network Structured Representation (Fast-DENSER) to incremental
development. We hypothesise that by transferring the knowledge gained from
previous tasks we can attain superior results and speedup evolution. The
results show that the average performance of the models generated by
incremental development is statistically superior to the non-incremental
average performance. In case the number of evaluations performed by incremental
development is smaller than the performed by non-incremental development the
attained results are similar in performance, which indicates that incremental
development speeds up evolution. Lastly, the models generated using incremental
development generalise better, and thus, without further evolution, report a
superior performance on unseen problems.
- Abstract(参考訳): NeuroEvolution(NE)法は、ニューラルネットワーク(ANN)の最適化に進化計算を適用することで知られている。
非熟練のユーザに対してANNの設計とトレーニングを支援する一方で、NEアプローチの大多数は、他のタスクの解決時に収集された知識を無視している。
この欠点を克服するため、我々はFast Deep Evolutionary Network Structured Representation (Fast-DENSER)をインクリメンタル開発に拡張した。
従来のタスクから得た知識を転送することで、優れた結果とスピードアップの進化を達成できると仮定する。
その結果, インクリメンタル開発によるモデルの平均性能は, 非インクリメンタルな平均性能よりも統計的に優れていることがわかった。
インクリメンタル開発による評価が非インクリメンタル開発による評価よりも少ない場合、達成された結果がパフォーマンスに似ており、インクリメンタル開発が進化を加速することを示している。
最後に、インクリメンタル開発を用いて生成されたモデルはより一般化され、さらなる進化なしに、目に見えない問題に対して優れた性能を報告します。
関連論文リスト
- Impacts of Darwinian Evolution on Pre-trained Deep Neural Networks [12.847052918757768]
本研究では進化論に基づくニューラルネットワーク最適化フレームワークを提案する。
ダーウィン進化とニューラルネットワーク最適化の関係を調べる実験を行った。
提案するフレームワークはネットワークに肯定的な影響を与える。
論文 参考訳(メタデータ) (2024-08-10T14:08:33Z) - Trackable Agent-based Evolution Models at Wafer Scale [0.0]
我々は,85万プロセッサCerebras Wafer Scale Engine(WSE)のエージェントベース進化から系統情報を抽出する問題に焦点をあてる。
We present a asynchronous island-based genetic algorithm (GA) framework for WSE hardware。
本研究は,これらの治験の系統的再構成を検証し,根底にある進化状態の推測に適合することを示す。
論文 参考訳(メタデータ) (2024-04-16T19:24:14Z) - NeuroLGP-SM: A Surrogate-assisted Neuroevolution Approach using Linear Genetic Programming [0.19116784879310028]
我々はNeuroLGP-Surrogate Model(NeuroLGP-SM)と呼ばれるディープニューラルネットワーク(DNN)のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T14:31:01Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - EvoPose2D: Pushing the Boundaries of 2D Human Pose Estimation using
Accelerated Neuroevolution with Weight Transfer [82.28607779710066]
生物進化にインスパイアされたニューラル・アーキテクチャー・サーチの一形態であるニューラル・エボリューションの2次元ヒューマン・ポーズ・ネットワークの設計への応用について検討する。
本手法は,最先端の手設計ネットワークよりも効率的かつ高精度なネットワーク設計を実現する。
論文 参考訳(メタデータ) (2020-11-17T05:56:16Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z) - Alpha Discovery Neural Network based on Prior Knowledge [55.65102700986668]
遺伝的プログラミング(GP)は、金融自動化機能構築タスクにおける最先端技術である。
本稿では,分散金融技術指標の自動構築が可能なニューラルネットワーク構造であるAlpha Discovery Neural Network (ADNN)を提案する。
論文 参考訳(メタデータ) (2019-12-26T03:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。