論文の概要: EvoX: A Distributed GPU-accelerated Framework for Scalable Evolutionary
Computation
- arxiv url: http://arxiv.org/abs/2301.12457v8
- Date: Fri, 6 Oct 2023 14:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:09:42.797525
- Title: EvoX: A Distributed GPU-accelerated Framework for Scalable Evolutionary
Computation
- Title(参考訳): EvoX: スケーラブル進化計算のための分散GPUアクセラレーションフレームワーク
- Authors: Beichen Huang, Ran Cheng, Zhuozhao Li, Yaochu Jin, Kay Chen Tan
- Abstract要約: 進化計算(Evolutionary Computation, EC)は、人工知能の基盤として確立されている。
EvoXは、ECアルゴリズムの自動化、分散、均一な実行に適したコンピューティングフレームワークである。
- 参考スコア(独自算出の注目度): 40.71953374838183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by natural evolutionary processes, Evolutionary Computation (EC) has
established itself as a cornerstone of Artificial Intelligence. EC possesses
distinctive attributes, including adaptability and the capability to explore
expansive problem spaces, making it invaluable in domains that require
intricate black-box optimization. Recently, with the surge in data-intensive
applications and large-scale complex systems, the demand for scalable EC
solutions has grown significantly. However, many existing EC libraries, which
were originally designed for modest scales, fall short in catering to the
heightened demands of modern problems. While the advent of some pioneering
GPU-accelerated EC libraries is a step forward, they too grapple with
limitations, particularly in terms of flexibility and architectural robustness.
To address these limitations, we introduce EvoX: a computing framework tailored
for automated, distributed, and heterogeneous execution of EC algorithms. At
the core of EvoX lies a functional programming model that simplifies the
development of parallelized EC algorithms, seamlessly integrated with a
high-performance computation model designed specifically for distributed
GPU-accelerated execution. Building upon foundation, we have crafted an
extensive library comprising a wide spectrum of 45 EC algorithms for both
single- and multi-objective optimization. Furthermore, the library offers
comprehensive support for a diverse set of benchmark problems, ranging from
dozens of numerical test functions to hundreds of neuroevolution and
reinforcement learning tasks/environments. Through extensive experiments across
a range of problem scenarios and hardware configurations, EvoX has demonstrated
robust system and model performances. EvoX is open-source and accessible at:
https://github.com/EMI-Group/EvoX.
- Abstract(参考訳): 自然進化過程にインスパイアされた進化的計算(ec)は、人工知能の基盤としての地位を確立した。
ecは適応性や拡張的な問題空間を探索する能力など、特有の特性を持っており、複雑なブラックボックス最適化を必要とする領域で有用である。
近年,データ集約型アプリケーションや大規模複雑システムの普及に伴い,スケーラブルなECソリューションの需要は大幅に増大している。
しかし、元々は質素なスケールで設計された既存のECライブラリの多くは、現代の問題に対する要求が高まっているため、不足している。
先駆的なGPU加速ECライブラリの出現は一歩前進するが、柔軟性とアーキテクチャの堅牢性という面では、制限に悩まされている。
これらの制限に対処するため、ECアルゴリズムの自動化、分散、異種実行に適した計算フレームワークであるEvoXを紹介した。
evoxの中核は、並列化されたecアルゴリズムの開発を単純化する関数型プログラミングモデルであり、gpuの分散実行に特化した高性能計算モデルとシームレスに統合されている。
基盤として,単一目的と多目的の両方の最適化のために,45のecアルゴリズムの広い範囲からなる広範なライブラリを構築した。
さらに、このライブラリは、数十の数値テスト機能から数百の神経進化と強化学習タスク/環境まで、さまざまなベンチマーク問題に対する包括的なサポートを提供する。
さまざまな問題シナリオやハードウェア構成に関する広範な実験を通じて、EvoXは堅牢なシステムとモデルのパフォーマンスを実証した。
EvoXはオープンソースで、https://github.com/EMI-Group/EvoXでアクセスできる。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - GPU-accelerated Evolutionary Multiobjective Optimization Using Tensorized RVEA [13.319536515278191]
本稿では,GPUアクセラレーションの進歩を活用するために,大規模な進化的参照ベクトルガイドアルゴリズム(TensorRVEA)を提案する。
大規模集団と問題次元を含む数値ベンチマークテストでは、RVEAは一貫して高い計算性能を示し、1000ドル以上のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-04-01T15:04:24Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - EvoTorch: Scalable Evolutionary Computation in Python [1.8514314381314885]
EvoTorchは、高次元最適化問題を扱うように設計された進化計算ライブラリである。
EvoTorchはPyTorchライブラリをベースとしてシームレスに動作するため、ユーザはよく知られたAPIを使用して最適化問題を定義することができる。
論文 参考訳(メタデータ) (2023-02-24T12:37:45Z) - evosax: JAX-based Evolution Strategies [0.0]
evosaxは進化最適化アルゴリズムのJAXベースのライブラリです。
evosaxは30の進化最適化アルゴリズムを実装している。
モジュラー方式で設計されており、シンプルなRequest-evaluate-tell APIを通じてフレキシブルな使用を可能にする。
論文 参考訳(メタデータ) (2022-12-08T10:34:42Z) - EvoJAX: Hardware-Accelerated Neuroevolution [11.835051811090672]
本稿では,ハードウェアアクセラレーションによる神経進化ツールキットであるEvoJAXを紹介する。
神経進化アルゴリズムは、複数のTPU/GPUで並列に実行されるニューラルネットワークを扱うことができる。
進化計算実験の反復サイクルを大幅に短縮することができる。
論文 参考訳(メタデータ) (2022-02-10T13:06:47Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Towards High Performance Java-based Deep Learning Frameworks [0.22940141855172028]
現代のクラウドサービスは、高速で効率的なデータ処理の需要を定めている。
この需要は、ディープラーニング、データマイニング、コンピュータビジョンなど、多くのアプリケーション領域に共通している。
本稿では、JavaベースのディープラーニングフレームワークであるDeep Nettsを透過的に高速化する最先端のプログラミングフレームワークであるTornadoVMを採用しました。
論文 参考訳(メタデータ) (2020-01-13T13:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。