論文の概要: EvoJAX: Hardware-Accelerated Neuroevolution
- arxiv url: http://arxiv.org/abs/2202.05008v2
- Date: Tue, 5 Apr 2022 21:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 04:48:11.341131
- Title: EvoJAX: Hardware-Accelerated Neuroevolution
- Title(参考訳): EvoJAX: ハードウェアアクセラレーションによる神経進化
- Authors: Yujin Tang, Yingtao Tian, David Ha
- Abstract要約: 本稿では,ハードウェアアクセラレーションによる神経進化ツールキットであるEvoJAXを紹介する。
神経進化アルゴリズムは、複数のTPU/GPUで並列に実行されるニューラルネットワークを扱うことができる。
進化計算実験の反復サイクルを大幅に短縮することができる。
- 参考スコア(独自算出の注目度): 11.835051811090672
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Evolutionary computation has been shown to be a highly effective method for
training neural networks, particularly when employed at scale on CPU clusters.
Recent work have also showcased their effectiveness on hardware accelerators,
such as GPUs, but so far such demonstrations are tailored for very specific
tasks, limiting applicability to other domains. We present EvoJAX, a scalable,
general purpose, hardware-accelerated neuroevolution toolkit. Building on top
of the JAX library, our toolkit enables neuroevolution algorithms to work with
neural networks running in parallel across multiple TPU/GPUs. EvoJAX achieves
very high performance by implementing the evolution algorithm, neural network
and task all in NumPy, which is compiled just-in-time to run on accelerators.
We provide extensible examples of EvoJAX for a wide range of tasks, including
supervised learning, reinforcement learning and generative art. Since EvoJAX
can find solutions to most of these tasks within minutes on a single
accelerator, compared to hours or days when using CPUs, our toolkit can
significantly shorten the iteration cycle of evolutionary computation
experiments. EvoJAX is available at https://github.com/google/evojax
- Abstract(参考訳): 進化的計算は、特にcpuクラスタのスケールにおいて、ニューラルネットワークのトレーニングに非常に効果的な方法であることが示されている。
最近の研究は、GPUのようなハードウェアアクセラレータでも、その効果を示してきたが、これまでのところ、このようなデモは特定のタスクに特化しており、他のドメインへの適用性に制限がある。
EvoJAXは、スケーラブルで汎用的で、ハードウェアが加速する神経進化ツールキットです。
JAXライブラリ上に構築されているツールキットにより、ニューラルネットワークを複数のTPU/GPUで並列に動作させることができる。
EvoJAXは進化アルゴリズム、ニューラルネットワーク、タスクをすべてNumPyで実装することで、非常に高いパフォーマンスを実現している。
本稿では,教師付き学習,強化学習,生成技術など,幅広いタスクに対してEvoJAXの拡張例を提案する。
EvoJAXは、CPUを使用する場合と比較して、これらのタスクのほとんどを1つのアクセラレータ上で数分で解決できるので、我々のツールキットは進化計算実験の反復サイクルを大幅に短縮することができる。
EvoJAXはhttps://github.com/google/evojaxで入手できる。
関連論文リスト
- Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - EvoX: A Distributed GPU-accelerated Framework for Scalable Evolutionary
Computation [40.71953374838183]
EvoXは、ECアルゴリズムの自動化、分散、均一な実行に適したコンピューティングフレームワークである。
EvoXの中核には、並列化可能なECアルゴリズムの開発を合理化するユニークなプログラミングモデルがある。
EvoXは、数十の数値テスト機能から数百の強化学習タスクまで、さまざまなベンチマーク問題に対する包括的なサポートを提供する。
論文 参考訳(メタデータ) (2023-01-29T15:00:16Z) - evosax: JAX-based Evolution Strategies [0.0]
evosaxは進化最適化アルゴリズムのJAXベースのライブラリです。
evosaxは30の進化最適化アルゴリズムを実装している。
モジュラー方式で設計されており、シンプルなRequest-evaluate-tell APIを通じてフレキシブルな使用を可能にする。
論文 参考訳(メタデータ) (2022-12-08T10:34:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Efficient Visual Tracking via Hierarchical Cross-Attention Transformer [82.92565582642847]
本稿では,HCAT と呼ばれる階層型クロスアテンショントランスを用いた効率的な追跡手法を提案する。
当社のモデルは、GPUで約195fps、CPUで45fps、NVidia Jetson AGX XavierのエッジAIプラットフォームで55fpsで動作します。
論文 参考訳(メタデータ) (2022-03-25T09:45:27Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Accelerating SLIDE Deep Learning on Modern CPUs: Vectorization,
Quantizations, Memory Optimizations, and More [26.748770505062378]
SLIDEはスパースハッシュテーブルベースのバックプロパゲーションのC++実装である。
SLIDE の計算によって AVX (Advanced Vector Extensions-512) によるベクトル化が可能となることを示す。
我々の実験は、大規模(数百万のパラメータ)のレコメンデーションとNLPモデルに焦点を当てている。
論文 参考訳(メタデータ) (2021-03-06T02:13:43Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Towards High Performance Java-based Deep Learning Frameworks [0.22940141855172028]
現代のクラウドサービスは、高速で効率的なデータ処理の需要を定めている。
この需要は、ディープラーニング、データマイニング、コンピュータビジョンなど、多くのアプリケーション領域に共通している。
本稿では、JavaベースのディープラーニングフレームワークであるDeep Nettsを透過的に高速化する最先端のプログラミングフレームワークであるTornadoVMを採用しました。
論文 参考訳(メタデータ) (2020-01-13T13:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。