論文の概要: TensorNEAT: A GPU-accelerated Library for NeuroEvolution of Augmenting Topologies
- arxiv url: http://arxiv.org/abs/2504.08339v1
- Date: Fri, 11 Apr 2025 08:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:19:55.217088
- Title: TensorNEAT: A GPU-accelerated Library for NeuroEvolution of Augmenting Topologies
- Title(参考訳): TensorNEAT: 拡張トポロジの神経進化のためのGPUアクセラレーションライブラリ
- Authors: Lishuang Wang, Mengfei Zhao, Enyu Liu, Kebin Sun, Ran Cheng,
- Abstract要約: NEATは、NEATアルゴリズムにテンソル化を適用するGPUアクセラレーションライブラリである。
NEATはJAX上に構築されており、自動関数ベクトル化とハードウェアアクセラレーションを利用している。
このライブラリは CPPN や HyperNEAT などの変種をサポートし、Gym, Brax, gymnax などのベンチマーク環境と統合されている。
- 参考スコア(独自算出の注目度): 6.784939343811732
- License:
- Abstract: The NeuroEvolution of Augmenting Topologies (NEAT) algorithm has received considerable recognition in the field of neuroevolution. Its effectiveness is derived from initiating with simple networks and incrementally evolving both their topologies and weights. Although its capability across various challenges is evident, the algorithm's computational efficiency remains an impediment, limiting its scalability potential. To address these limitations, this paper introduces TensorNEAT, a GPU-accelerated library that applies tensorization to the NEAT algorithm. Tensorization reformulates NEAT's diverse network topologies and operations into uniformly shaped tensors, enabling efficient parallel execution across entire populations. TensorNEAT is built upon JAX, leveraging automatic function vectorization and hardware acceleration to significantly enhance computational efficiency. In addition to NEAT, the library supports variants such as CPPN and HyperNEAT, and integrates with benchmark environments like Gym, Brax, and gymnax. Experimental evaluations across various robotic control environments in Brax demonstrate that TensorNEAT delivers up to 500x speedups compared to existing implementations, such as NEAT-Python. The source code for TensorNEAT is publicly available at: https://github.com/EMI-Group/tensorneat.
- Abstract(参考訳): 神経進化(NeuroEvolution of Augmenting Topologies、NEAT)アルゴリズムは、神経進化の分野でかなりの認知を得ている。
その効果は単純なネットワークで開始し、トポロジと重みの両方を漸進的に進化させることから導かれる。
様々な課題にまたがる能力は明らかだが、アルゴリズムの計算効率は依然として障害であり、スケーラビリティの可能性を制限している。
本稿では,この制限に対処するために,NEATアルゴリズムにテンソル化を適用するGPU高速化ライブラリであるTensorNEATを紹介する。
テンソル化はNEATの多様なネットワークトポロジと操作を均一な形のテンソルに再構成し、全人口にわたって効率的な並列実行を可能にする。
TensorNEATはJAX上に構築されており、自動関数ベクトル化とハードウェアアクセラレーションを利用して計算効率を大幅に向上する。
NEATに加えて、ライブラリはCPPNやHyperNEATといった変種をサポートし、Gym、Brax、Gimmonaxといったベンチマーク環境と統合されている。
Braxのさまざまなロボット制御環境に対する実験的評価は、TensorNEATがNEAT-Pythonのような既存の実装と比較して最大500倍のスピードアップを実現していることを示している。
TensorNEATのソースコードは、https://github.com/EMI-Group/tensorneat.comで公開されている。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Tensorized NeuroEvolution of Augmenting Topologies for GPU Acceleration [6.784939343811732]
神経進化(NeuroEvolution of Augmenting Topologies、NEAT)アルゴリズムは、神経進化の分野でかなりの認知を得ている。
本稿では、NEATアルゴリズムのテンソル化手法を導入し、その多様なネットワークトポロジの変換を可能にする。
NEATライブラリは、Gym, Brax, gymnaxなど、さまざまなベンチマーク環境をサポートしている。
論文 参考訳(メタデータ) (2024-04-02T10:20:12Z) - GPU-accelerated Evolutionary Multiobjective Optimization Using Tensorized RVEA [13.319536515278191]
本稿では,GPUアクセラレーションの進歩を活用するために,大規模な進化的参照ベクトルガイドアルゴリズム(TensorRVEA)を提案する。
大規模集団と問題次元を含む数値ベンチマークテストでは、RVEAは一貫して高い計算性能を示し、1000ドル以上のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-04-01T15:04:24Z) - Forward Direct Feedback Alignment for Online Gradient Estimates of Spiking Neural Networks [0.0]
スパイクニューラルネットワークは、ニューロモルフィックハードウェアプラットフォーム上で効率的にエネルギーをシミュレートすることができる。
本研究では,新しいニューロモルフィックアルゴリズムであるtextitSpiking Forward Direct Feedback Alignment (SFDFA) を提案する。
論文 参考訳(メタデータ) (2024-02-06T09:07:12Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - NeuroEvo: A Cloud-based Platform for Automated Design and Training of
Neural Networks using Evolutionary and Particle Swarm Algorithms [0.0]
本稿では,ニューラルネットワーク分類器を対話的に設計し,訓練することができる新しいWebプラットフォームであるNeuroEvoを紹介する。
分類問題とトレーニングデータはユーザが提供し、トレーニングプロセスが完了すると、Python、Java、JavaScriptで最高の分類器をダウンロードして実装することができる。
論文 参考訳(メタデータ) (2022-10-01T14:10:43Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。