論文の概要: Enabling Population-Level Parallelism in Tree-Based Genetic Programming for Comprehensive GPU Acceleration
- arxiv url: http://arxiv.org/abs/2501.17168v4
- Date: Thu, 03 Jul 2025 15:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:13.476678
- Title: Enabling Population-Level Parallelism in Tree-Based Genetic Programming for Comprehensive GPU Acceleration
- Title(参考訳): 総合GPU高速化のための木に基づく遺伝的プログラミングにおける集団レベル並列性の実現
- Authors: Zhihong Wu, Lishuang Wang, Kebin Sun, Zhuozhao Li, Ran Cheng,
- Abstract要約: 木に基づく遺伝的プログラミング(TGP)は、記号回帰、アクセス可能な分類、ロボット制御などのタスクに広く用いられている進化的アルゴリズムである。
EvoGPは、人口レベルの並列実行によるTGPの包括的なGPUアクセラレーションに適した高性能フレームワークである。
EvoGPは最先端のGPUベースのTGP実装よりも最大140倍の高速化を実現していることを示す。
- 参考スコア(独自算出の注目度): 8.571010338499422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree-based Genetic Programming (TGP) is a widely used evolutionary algorithm for tasks such as symbolic regression, classification, and robotic control. Due to the intensive computational demands of running TGP, GPU acceleration is crucial for achieving scalable performance. However, efficient GPU-based execution of TGP still remains challenging, primarily due to three core issues: (1) the structural heterogeneity of program individuals, (2) the complexity of integrating multiple levels of parallelism, and (3) the incompatibility between high-performance CUDA execution and flexible Python-based environments. To address these issues, we propose EvoGP, a high-performance framework tailored for comprehensive GPU acceleration of TGP via population-level parallel execution. First, EvoGP introduces a tensorized representation that encodes variable-sized trees into fixed-shape, memory-aligned arrays, enabling uniform memory access and parallel computation across diverse individuals. Second, EvoGP adopts an adaptive parallelism strategy that dynamically combines intra- and inter-individual parallelism based on dataset size, ensuring high GPU utilization across a broad spectrum of tasks. Third, EvoGP embeds custom CUDA kernels into the PyTorch runtime, achieving seamless integration with Python-based environments such as Gym, MuJoCo, Brax, and Genesis. Comprehensive experiments show that EvoGP achieves up to 140x speedup over state-of-the-art GPU-based TGP implementations, while maintaining competitive accuracy and significantly improving scalability under large population sizes. EvoGP is open source and accessible at: https://github.com/EMI-Group/evogp.
- Abstract(参考訳): 木に基づく遺伝的プログラミング(TGP)は、記号回帰、分類、ロボット制御などのタスクに広く用いられている進化的アルゴリズムである。
TGPの実行には計算負荷が集中しているため、GPUアクセラレーションはスケーラブルなパフォーマンスを実現する上で不可欠である。
しかし、TGPの効率的なGPUベースの実行は、(1)プログラム個人の構造的不均一性、(2)複数のレベルの並列性の統合の複雑さ、(3)高性能CUDA実行と柔軟なPythonベースの環境の不整合性の3つの問題により、依然として困難なままである。
これらの問題に対処するために,人口レベルの並列実行によるTGPの総合的GPUアクセラレーションに適した高性能フレームワークであるEvoGPを提案する。
まず、EvoGPは、可変サイズのツリーを固定形状のメモリ整列配列にエンコードするテンソル化表現を導入し、様々な個人に対して均一なメモリアクセスと並列計算を可能にした。
第二に、EvoGPは適応並列化戦略を採用し、データセットサイズに基づいた個人間並列化と個人間並列化を動的に組み合わせ、幅広いタスクで高いGPU利用を確保する。
第三に、EvoGPはカスタムCUDAカーネルをPyTorchランタイムに組み込み、Gym、MuJoCo、Brax、GenesisといったPythonベースの環境とシームレスに統合する。
総合的な実験により、EvoGPは最先端のGPUベースのTGP実装よりも最大140倍のスピードアップを実現し、競争精度を維持し、大きな人口規模でのスケーラビリティを著しく向上することが示された。
EvoGPはオープンソースで、https://github.com/EMI-Group/evogp.comでアクセスできる。
関連論文リスト
- HiGP: A high-performance Python package for Gaussian Process [13.127443064937735]
HiGPは、効率的なガウスプロセス回帰(GPR)と分類(GPC)のために設計された高性能Pythonパッケージである。
マトリクスベクター (MatVec) とマトリクス (MatMul) の乗算戦略を実装しており、カーネル行列に特化している。
ユーザフレンドリなPythonインターフェースにより、HiGPはPyTorchや他のPythonパッケージとシームレスに統合され、既存の機械学習とデータ分析に簡単に組み込むことができる。
論文 参考訳(メタデータ) (2025-03-04T04:17:36Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning for Compression [1.0356366043809717]
モデル圧縮技術として特別に設計された記号回帰に対するニューラルネットワークアプローチである$ttSymbolNet$を提案する。
このフレームワークは、単一のトレーニングプロセスにおいてモデルウェイト、入力特徴、数学的演算子の動的プルーニングを可能にする。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - EvoX: A Distributed GPU-accelerated Framework for Scalable Evolutionary
Computation [40.71953374838183]
EvoXは、ECアルゴリズムの自動化、分散、均一な実行に適したコンピューティングフレームワークである。
EvoXの中核には、並列化可能なECアルゴリズムの開発を合理化するユニークなプログラミングモデルがある。
EvoXは、数十の数値テスト機能から数百の強化学習タスクまで、さまざまなベンチマーク問題に対する包括的なサポートを提供する。
論文 参考訳(メタデータ) (2023-01-29T15:00:16Z) - evosax: JAX-based Evolution Strategies [0.0]
evosaxは進化最適化アルゴリズムのJAXベースのライブラリです。
evosaxは30の進化最適化アルゴリズムを実装している。
モジュラー方式で設計されており、シンプルなRequest-evaluate-tell APIを通じてフレキシブルな使用を可能にする。
論文 参考訳(メタデータ) (2022-12-08T10:34:42Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Accelerating Genetic Programming using GPUs [0.0]
遺伝的プログラミング(GP)は、曲線フィッティング、データモデリング、特徴選択、分類など、機械学習に複数の応用がある。
本稿では,代用GPアルゴリズムのGPUアクセラレーションスタックに基づく変種について述べる。
論文 参考訳(メタデータ) (2021-10-15T06:13:01Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Speed Benchmarking of Genetic Programming Frameworks [1.1470070927586016]
遺伝的プログラミング(GP)は、設計による計算コストの負担に悩まされていることが知られている。
本研究では,ベクトル化および反復的実装手法の性能と進化性を比較するために,一連のベンチマークを用いている。
論文 参考訳(メタデータ) (2021-05-25T22:06:42Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical
Models [96.1052289276254]
この研究は、人気のあるDual Block-Coordinate Ascent原則に基づく新しいMAP-solverを導入している。
驚いたことに、性能の低い解法に小さな変更を加えることで、既存の解法を大きなマージンで大幅に上回る新しい解法MPLP++を導出します。
論文 参考訳(メタデータ) (2020-04-16T16:20:53Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。