論文の概要: Neuroevolution in Deep Neural Networks: Current Trends and Future
Challenges
- arxiv url: http://arxiv.org/abs/2006.05415v1
- Date: Tue, 9 Jun 2020 17:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:16:43.483371
- Title: Neuroevolution in Deep Neural Networks: Current Trends and Future
Challenges
- Title(参考訳): 深層ニューラルネットワークにおける神経進化の現状と課題
- Authors: Edgar Galv\'an and Peter Mooney
- Abstract要約: 人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成と学習,あるいはトレーニングに,さまざまな手法が適用されている。
進化的アルゴリズム(EA)は、DNNの自動最適化とトレーニングのための計算可能な方法として勢いを増している。
本稿では,DNNのアーキテクチャ構成とトレーニングにEAを用いた最先端の作業について,総合的な調査,議論,評価を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A variety of methods have been applied to the architectural configuration and
learning or training of artificial deep neural networks (DNN). These methods
play a crucial role in the success or failure of the DNN for most problems and
applications. Evolutionary Algorithms (EAs) are gaining momentum as a
computationally feasible method for the automated optimisation and training of
DNNs. Neuroevolution is a term which describes these processes of automated
configuration and training of DNNs using EAs. While many works exist in the
literature, no comprehensive surveys currently exist focusing exclusively on
the strengths and limitations of using neuroevolution approaches in DNNs.
Prolonged absence of such surveys can lead to a disjointed and fragmented field
preventing DNNs researchers potentially adopting neuroevolutionary methods in
their own research, resulting in lost opportunities for improving performance
and wider application within real-world deep learning problems. This paper
presents a comprehensive survey, discussion and evaluation of the
state-of-the-art works on using EAs for architectural configuration and
training of DNNs. Based on this survey, the paper highlights the most pertinent
current issues and challenges in neuroevolution and identifies multiple
promising future research directions.
- Abstract(参考訳): 人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成や学習、トレーニングには、様々な方法が適用されている。
これらの手法は、ほとんどの問題やアプリケーションにおいて、DNNの成功や失敗において重要な役割を果たす。
進化的アルゴリズム(EA)はDNNの自動最適化とトレーニングのための計算可能な方法として勢いを増している。
Neuroevolution(神経進化)とは、EAを用いたDNNの自動構成とトレーニングのプロセスを記述する用語である。
文献には多くの研究があるが、DNNにおける神経進化的アプローチの使用の強さと限界にのみ焦点を絞った総合的な調査は存在しない。
このような調査の長期欠如は、DNNの研究者が自身の研究に神経進化的手法を採用する可能性を防ぎ、現実のディープラーニング問題におけるパフォーマンスの向上とより広範な応用の機会を失うことにつながる。
本稿では,DNNのアーキテクチャ構成とトレーニングにEAを用いた最先端技術に関する総合的な調査,議論,評価を行う。
本研究は,神経進化における最も関連する課題と課題を浮き彫りにして,将来有望な研究の方向性を明らかにする。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Evolutionary Spiking Neural Networks: A Survey [21.27024959576232]
従来のニューラルネットワーク(ANN)に代わる計算効率の良い代替手段として、スパイキングニューラルネットワーク(SNN)が注目を集めている。
ユニークな情報伝達機構とSNNニューロンモデルの複雑さは、ANN向けに開発された従来の手法をSNNに適用するための課題を提起する。
近年,これらの課題に対処するために進化的計算手法を利用した新しいパラダイムが出現している。
論文 参考訳(メタデータ) (2024-06-18T12:27:55Z) - Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - Brain-Inspired Spiking Neural Networks for Industrial Fault Diagnosis: A Survey, Challenges, and Opportunities [10.371337760495521]
Spiking Neural Network (SNN)は、Brainにインスパイアされたコンピューティングの原理に基づいている。
本稿では,SNNモデルの理論的進歩を体系的にレビューし,SNNとは何かという疑問に答える。
論文 参考訳(メタデータ) (2023-11-13T11:25:34Z) - Direct Learning-Based Deep Spiking Neural Networks: A Review [17.255056657521195]
スパイキングニューラルネットワーク(SNN)は、二分スパイク情報伝達機構を備えた有望な脳誘発計算モデルである。
本稿では,直接学習に基づく深部SNN研究について,主に精度向上法,効率改善法,時間的ダイナミクス利用法に分類する。
論文 参考訳(メタデータ) (2023-05-31T10:32:16Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Neuroevolutionary Multi-objective approaches to Trajectory Prediction in
Autonomous Vehicles [2.9552300389898094]
我々は、神経進化と進化的多目的最適化の共通点に焦点を当てる。
本稿では,CNNとLong-Short Term Memoryネットワークからなる畳み込みニューラルネットワークについて検討する。
これらの目的が、自律走行車における軌道予測のための神経進化において、肯定的または有害な効果を持つかを示す。
論文 参考訳(メタデータ) (2022-05-04T15:03:26Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。