論文の概要: NeuroEvo: A Cloud-based Platform for Automated Design and Training of
Neural Networks using Evolutionary and Particle Swarm Algorithms
- arxiv url: http://arxiv.org/abs/2210.00286v1
- Date: Sat, 1 Oct 2022 14:10:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:30:17.173556
- Title: NeuroEvo: A Cloud-based Platform for Automated Design and Training of
Neural Networks using Evolutionary and Particle Swarm Algorithms
- Title(参考訳): NeuroEvo:進化的および粒子群アルゴリズムを用いたニューラルネットワークの自動設計とトレーニングのためのクラウドプラットフォーム
- Authors: Philip Schroeder
- Abstract要約: 本稿では,ニューラルネットワーク分類器を対話的に設計し,訓練することができる新しいWebプラットフォームであるNeuroEvoを紹介する。
分類問題とトレーニングデータはユーザが提供し、トレーニングプロセスが完了すると、Python、Java、JavaScriptで最高の分類器をダウンロードして実装することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evolutionary algorithms (EAs) provide unique advantages for optimizing neural
networks in complex search spaces. This paper introduces a new web platform,
NeuroEvo (neuroevo.io), that allows users to interactively design and train
neural network classifiers using evolutionary and particle swarm algorithms.
The classification problem and training data are provided by the user and, upon
completion of the training process, the best classifier is made available to
download and implement in Python, Java, and JavaScript. NeuroEvo is a
cloud-based application that leverages GPU parallelization to improve the speed
with which the independent evolutionary steps, such as mutation, crossover, and
fitness evaluation, are executed across the population. This paper outlines the
training algorithms and opportunities for users to specify design decisions and
hyperparameter settings. The algorithms described in this paper are also made
available as a Python package, neuroevo (PyPI:
https://pypi.org/project/neuroevo/).
- Abstract(参考訳): 進化的アルゴリズム(EA)は、複雑な検索空間におけるニューラルネットワークの最適化にユニークな利点を提供する。
本稿では,ニューロエボ(neuroevo.io)という新しいwebプラットフォームを導入し,進化的およびパーティクルスワーミングアルゴリズムを用いたニューラルネットワーク分類器の対話的設計と学習を可能にする。
分類問題とトレーニングデータはユーザによって提供され、トレーニングプロセスが完了すると、最良の分類器がpython、java、javascriptでダウンロードおよび実装できるようになる。
NeuroEvoはクラウドベースのアプリケーションで、GPU並列化を活用して、突然変異、クロスオーバー、フィットネス評価といった独立した進化段階が人口全体にわたって実行される速度を改善する。
本稿では,設計決定とハイパーパラメータ設定をユーザが指定するためのトレーニングアルゴリズムと機会について概説する。
この論文で説明したアルゴリズムはPythonパッケージであるNeuroevo(PyPI: https://pypi.org/project/neuroevo/)としても利用可能である。
関連論文リスト
- Convolutional Conditional Neural Processes [6.532867867011488]
この理論は神経過程を3つの方法で前進させる。
ConvNPは、変換分散と呼ばれる対称性で構築することで、データ効率を向上させる。
GNPは神経過程の予測において依存関係を直接パラメライズする。
AR CNPは、モデルやトレーニング手順を変更することなく、ニューラルネットワークをトレーニングし、テスト時には、自己回帰的な方法でモデルをロールアウトする。
論文 参考訳(メタデータ) (2024-08-18T19:53:38Z) - Forward Direct Feedback Alignment for Online Gradient Estimates of Spiking Neural Networks [0.0]
スパイクニューラルネットワークは、ニューロモルフィックハードウェアプラットフォーム上で効率的にエネルギーをシミュレートすることができる。
本研究では,新しいニューロモルフィックアルゴリズムであるtextitSpiking Forward Direct Feedback Alignment (SFDFA) を提案する。
論文 参考訳(メタデータ) (2024-02-06T09:07:12Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。