論文の概要: Neuroevolution in Deep Learning: The Role of Neutrality
- arxiv url: http://arxiv.org/abs/2102.08475v1
- Date: Tue, 16 Feb 2021 22:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 00:03:48.083528
- Title: Neuroevolution in Deep Learning: The Role of Neutrality
- Title(参考訳): 深層学習における神経進化 : 中性の役割
- Authors: Edgar Galv\'an
- Abstract要約: 人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成と学習・訓練に手法が適用された。
進化的アルゴリズム(EA)はDNNの自動最適化のための計算可能手法として勢いを増している。
この研究は、ある条件を条件として、ニュートラルネットのトレーニング/設計を高速化する上で、中立性がどのように役立つかについて論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A variety of methods have been applied to the architectural configuration and
learning or training of artificial deep neural networks (DNN). These methods
play a crucial role in the success or failure of the DNN for most problems and
applications. Evolutionary Algorithms (EAs) are gaining momentum as a
computationally feasible method for the automated optimisation of DNNs.
Neuroevolution is a term which describes these processes of automated
configuration and training of DNNs using EAs. However, the automatic design
and/or training of these modern neural networks through evolutionary algorithms
is computanalli expensive. Kimura's neutral theory of molecular evolution
states that the majority of evolutionary changes at molecular level are the
result of random fixation of selectively neutral mutations. A mutation from one
gene to another is neutral if it does not affect the phenotype. This work
discusses how neutrality, given certain conditions, can help to speed up the
training/design of deep neural networks.
- Abstract(参考訳): 人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成や学習、トレーニングには、様々な方法が適用されている。
これらの手法は、ほとんどの問題やアプリケーションにおいて、DNNの成功や失敗において重要な役割を果たす。
進化的アルゴリズム(EA)はDNNの自動最適化のための計算可能手法として勢いを増している。
Neuroevolution(神経進化)とは、EAを用いたDNNの自動構成とトレーニングのプロセスを記述する用語である。
しかし、進化的アルゴリズムによる現代のニューラルネットワークの自動設計と訓練は費用がかかる。
分子進化に関する木村の中立理論は、分子レベルでの進化的変化の大部分は、選択的に中性突然変異のランダムな固定の結果であると述べている。
ある遺伝子から別の遺伝子への突然変異は、表現型に影響を与えなければ中立である。
本稿では、特定の条件下での中立性が、ディープニューラルネットワークのトレーニングと設計のスピードアップにどのように役立つかを論じる。
関連論文リスト
- Convolutional Conditional Neural Processes [6.532867867011488]
この理論は神経過程を3つの方法で前進させる。
ConvNPは、変換分散と呼ばれる対称性で構築することで、データ効率を向上させる。
GNPは神経過程の予測において依存関係を直接パラメライズする。
AR CNPは、モデルやトレーニング手順を変更することなく、ニューラルネットワークをトレーニングし、テスト時には、自己回帰的な方法でモデルをロールアウトする。
論文 参考訳(メタデータ) (2024-08-18T19:53:38Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Is it conceivable that neurogenesis, neural Darwinism, and species
evolution could all serve as inspiration for the creation of evolutionary
deep neural networks? [0.0]
Deep Neural Networks (DNN)は、人工知能ニューラルネットワークを使って構築されている。
本稿では,脳の2次元進化の重要性を強調する。
また、DNNの正規化に広く用いられているドロップアウト法と脳神経新生との関連を強調した。
論文 参考訳(メタデータ) (2023-04-06T14:51:20Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Neuroevolution of Physics-Informed Neural Nets: Benchmark Problems and
Comparative Results [25.12291688711645]
物理インフォームドニューラルネットワーク(PINN)は、最近の進歩の最前線にある重要な技術の一つである。
PINNのユニークな損失の定式化は、勾配降下に寄与しない高い複雑さと頑丈さをもたらす。
優れたグローバル検索能力を持つ神経進化アルゴリズムは、PINNにとってより良い選択であるかもしれない。
論文 参考訳(メタデータ) (2022-12-15T05:54:16Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Neuroevolutionary Multi-objective approaches to Trajectory Prediction in
Autonomous Vehicles [2.9552300389898094]
我々は、神経進化と進化的多目的最適化の共通点に焦点を当てる。
本稿では,CNNとLong-Short Term Memoryネットワークからなる畳み込みニューラルネットワークについて検討する。
これらの目的が、自律走行車における軌道予測のための神経進化において、肯定的または有害な効果を持つかを示す。
論文 参考訳(メタデータ) (2022-05-04T15:03:26Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Neuroevolution in Deep Neural Networks: Current Trends and Future
Challenges [0.0]
人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成と学習,あるいはトレーニングに,さまざまな手法が適用されている。
進化的アルゴリズム(EA)は、DNNの自動最適化とトレーニングのための計算可能な方法として勢いを増している。
本稿では,DNNのアーキテクチャ構成とトレーニングにEAを用いた最先端の作業について,総合的な調査,議論,評価を行う。
論文 参考訳(メタデータ) (2020-06-09T17:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。