論文の概要: EvoX: A Distributed GPU-accelerated Library towards Scalable
Evolutionary Computation
- arxiv url: http://arxiv.org/abs/2301.12457v1
- Date: Sun, 29 Jan 2023 15:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:07:44.544023
- Title: EvoX: A Distributed GPU-accelerated Library towards Scalable
Evolutionary Computation
- Title(参考訳): EvoX: スケーラブル進化計算のための分散GPUアクセラレーションライブラリ
- Authors: Beichen Huang, Ran Cheng, Yaochu Jin, Kay Chen Tan
- Abstract要約: 進化計算(EC)は、比較的小さなスケールで様々な複雑な最適化問題を解く上で有望な可能性を示している。
問題スケールが大きくなるにつれて、ECアルゴリズムは正しく機能するために関数評価の数を増やす必要があることが多い。
分散GPU高速化アルゴリズムライブラリであるEvoXを開発した。
- 参考スコア(独自算出の注目度): 23.771448900495173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During the past decades, evolutionary computation (EC) has demonstrated
promising potential in solving various complex optimization problems of
relatively small scales. Nowadays, however, ongoing developments in modern
science and engineering are bringing increasingly grave challenges to the
conventional EC paradigm in terms of scalability. As problem scales increase,
on the one hand, the encoding spaces (i.e., dimensions of the decision vectors)
are intrinsically larger; on the other hand, EC algorithms often require
growing numbers of function evaluations (and probably larger population sizes
as well) to work properly. To meet such emerging challenges, not only does it
require delicate algorithm designs, but more importantly, a high-performance
computing framework is indispensable. Hence, we develop a distributed
GPU-accelerated algorithm library -- EvoX. First, we propose a generalized
workflow for implementing general EC algorithms. Second, we design a scalable
computing framework for running EC algorithms on distributed GPU devices.
Third, we provide user-friendly interfaces to both researchers and
practitioners for benchmark studies as well as extended real-world
applications. Empirically, we assess the promising scalability of EvoX via a
series of benchmark experiments with problem dimensions/population sizes up to
millions. Moreover, we demonstrate the easy usability of EvoX by applying it to
solving reinforcement learning tasks on OpenAI Gym. To the best of our
knowledge, this is the first library supporting distributed GPU computing in
the EC literature. The code of EvoX is available at
https://github.com/EMI-Group/EvoX.
- Abstract(参考訳): 過去数十年間、進化計算(EC)は比較的小さなスケールで様々な複雑な最適化問題を解く可能性を実証してきた。
しかし、現代科学とエンジニアリングの継続的な発展は、スケーラビリティの観点から従来のECパラダイムにますます重大な課題をもたらしています。
問題の規模が大きくなるにつれて、符号化空間(すなわち決定ベクトルの次元)は本質的に大きくなり、一方ecアルゴリズムは機能評価の数が増加する(おそらく人口も大きくなる)ことがしばしば必要となる。
このような課題に対処するためには、繊細なアルゴリズム設計を必要とするだけでなく、より重要なことに、高性能なコンピューティングフレームワークが不可欠である。
そこで我々は分散gpuアクセラレーションアルゴリズムライブラリevoxを開発した。
まず,汎用ECアルゴリズムの実装のための汎用ワークフローを提案する。
次に、分散GPUデバイス上でECアルゴリズムを実行するためのスケーラブルなコンピューティングフレームワークを設計する。
第3に、ベンチマーク研究と拡張実世界のアプリケーションのために、研究者と実践者の両方にユーザフレンドリーなインターフェースを提供します。
実験的に,問題次元/人口規模を最大数百万とする一連のベンチマーク実験により,EvoXの有望なスケーラビリティを評価する。
さらに,OpenAI Gym上での強化学習タスクに応用することで,EvoXの使いやすさを実証する。
私たちの知る限りでは、これはEC文献における分散GPUコンピューティングをサポートする最初のライブラリです。
EvoXのコードはhttps://github.com/EMI-Group/EvoXで公開されている。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - GPU-accelerated Evolutionary Multiobjective Optimization Using Tensorized RVEA [13.319536515278191]
本稿では,GPUアクセラレーションの進歩を活用するために,大規模な進化的参照ベクトルガイドアルゴリズム(TensorRVEA)を提案する。
大規模集団と問題次元を含む数値ベンチマークテストでは、RVEAは一貫して高い計算性能を示し、1000ドル以上のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-04-01T15:04:24Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - EvoTorch: Scalable Evolutionary Computation in Python [1.8514314381314885]
EvoTorchは、高次元最適化問題を扱うように設計された進化計算ライブラリである。
EvoTorchはPyTorchライブラリをベースとしてシームレスに動作するため、ユーザはよく知られたAPIを使用して最適化問題を定義することができる。
論文 参考訳(メタデータ) (2023-02-24T12:37:45Z) - evosax: JAX-based Evolution Strategies [0.0]
evosaxは進化最適化アルゴリズムのJAXベースのライブラリです。
evosaxは30の進化最適化アルゴリズムを実装している。
モジュラー方式で設計されており、シンプルなRequest-evaluate-tell APIを通じてフレキシブルな使用を可能にする。
論文 参考訳(メタデータ) (2022-12-08T10:34:42Z) - EvoJAX: Hardware-Accelerated Neuroevolution [11.835051811090672]
本稿では,ハードウェアアクセラレーションによる神経進化ツールキットであるEvoJAXを紹介する。
神経進化アルゴリズムは、複数のTPU/GPUで並列に実行されるニューラルネットワークを扱うことができる。
進化計算実験の反復サイクルを大幅に短縮することができる。
論文 参考訳(メタデータ) (2022-02-10T13:06:47Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Towards High Performance Java-based Deep Learning Frameworks [0.22940141855172028]
現代のクラウドサービスは、高速で効率的なデータ処理の需要を定めている。
この需要は、ディープラーニング、データマイニング、コンピュータビジョンなど、多くのアプリケーション領域に共通している。
本稿では、JavaベースのディープラーニングフレームワークであるDeep Nettsを透過的に高速化する最先端のプログラミングフレームワークであるTornadoVMを採用しました。
論文 参考訳(メタデータ) (2020-01-13T13:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。