論文の概要: EvoGP: A GPU-accelerated Framework for Tree-based Genetic Programming
- arxiv url: http://arxiv.org/abs/2501.17168v3
- Date: Sun, 02 Feb 2025 17:03:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 12:43:17.171676
- Title: EvoGP: A GPU-accelerated Framework for Tree-based Genetic Programming
- Title(参考訳): EvoGP: 木に基づく遺伝的プログラミングのためのGPUアクセラレーションフレームワーク
- Authors: Lishuang Wang, Zhihong Wu, Kebin Sun, Zhuozhao Li, Ran Cheng,
- Abstract要約: 木に基づく遺伝的プログラミング(TGP)は、記号回帰、特徴工学、科学モデリングにおいて広く用いられている進化的アルゴリズムである。
これらの課題に対処するために、包括的なGPUアクセラレーションTGPフレームワークであるEvoGPを紹介する。
EvoGPは最先端のTGP実装よりも最大140.89倍の高速化を実現していることを示す。
- 参考スコア(独自算出の注目度): 8.571010338499422
- License:
- Abstract: Tree-based Genetic Programming (TGP) is a key evolutionary algorithm widely used in symbolic regression, feature engineering, and scientific modeling. Its high computational demands make GPU acceleration essential for scalable and high-performance evolutionary computation. However, GPU acceleration of TGP faces three key challenges: inefficient tree encoding, highly heterogeneous genetic operations, and limited parallelism in fitness evaluation. To address these challenges, we introduce EvoGP, a comprehensive GPU-accelerated TGP framework. First, we design a tensorized encoding scheme to represent tree with different structures as tensors with the same shape, optimizing memory access and enabling efficient parallel execution. Second, we propose a unified parallel framework for genetic operations by leveraging shared computational primitives and implementing dedicated CUDA kernels for scalable performance. Third, we present a fully parallel fitness evaluation strategy for symbolic regression, exploiting both population-level and data-level parallelism to maximize GPU utilization. Moreover, we implement a comprehensive library to provide rich algorithm operators and benchmark problems. EvoGP is extensively tested on various tasks, including symbolic regression, classification, and robotics control, demonstrating its versatility and effectiveness across diverse application scenarios. Experimental results show that EvoGP achieves up to a 140.89x speedup over the state-of-the-art GPU-based TGP implementation, while maintaining or exceeding the accuracy of baseline methods. EvoGP is open-source and accessible at: https://github.com/EMI-Group/evogp.
- Abstract(参考訳): 木に基づく遺伝的プログラミング(TGP)は、記号回帰、特徴工学、科学モデリングにおいて広く用いられている進化的アルゴリズムである。
その高い計算要求により、GPUアクセラレーションはスケーラブルで高性能な進化計算に不可欠である。
しかし、TGPのGPUアクセラレーションは、非効率なツリーエンコーディング、高度に異質な遺伝的操作、フィットネス評価における限られた並列性という3つの大きな課題に直面している。
これらの課題に対処するために、包括的なGPUアクセラレーションTGPフレームワークであるEvoGPを紹介する。
まず、異なる構造を持つ木を同じ形状のテンソルとして表現し、メモリアクセスを最適化し、効率的な並列実行を可能にするテンソル符号化方式を設計する。
第2に、共有計算プリミティブを活用し、スケーラブルな性能を実現するために専用のCUDAカーネルを実装することで、遺伝的操作のための統一並列フレームワークを提案する。
第3に、GPU利用を最大化するために、人口レベルとデータレベルの両方の並列性を利用する、シンボル回帰のための完全に並列なフィットネス評価戦略を提案する。
さらに,よりリッチなアルゴリズム演算子とベンチマーク問題を提供する包括的ライブラリを実装した。
EvoGPは、記号レグレッション、分類、ロボット制御など様々なタスクで広くテストされており、多様なアプリケーションシナリオでその汎用性と有効性を実証している。
実験の結果、EvoGPは最先端のGPUベースのTGP実装よりも最大140.89倍の高速化を実現し、ベースライン手法の精度を維持したり超えたりしていることがわかった。
EvoGPはオープンソースで、https://github.com/EMI-Group/evogp.comでアクセスできる。
関連論文リスト
- SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning for Compression [1.0356366043809717]
モデル圧縮技術として特別に設計された記号回帰に対するニューラルネットワークアプローチである$ttSymbolNet$を提案する。
このフレームワークは、単一のトレーニングプロセスにおいてモデルウェイト、入力特徴、数学的演算子の動的プルーニングを可能にする。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - evosax: JAX-based Evolution Strategies [0.0]
evosaxは進化最適化アルゴリズムのJAXベースのライブラリです。
evosaxは30の進化最適化アルゴリズムを実装している。
モジュラー方式で設計されており、シンプルなRequest-evaluate-tell APIを通じてフレキシブルな使用を可能にする。
論文 参考訳(メタデータ) (2022-12-08T10:34:42Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Accelerating Genetic Programming using GPUs [0.0]
遺伝的プログラミング(GP)は、曲線フィッティング、データモデリング、特徴選択、分類など、機械学習に複数の応用がある。
本稿では,代用GPアルゴリズムのGPUアクセラレーションスタックに基づく変種について述べる。
論文 参考訳(メタデータ) (2021-10-15T06:13:01Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - GSGP-CUDA -- a CUDA framework for Geometric Semantic Genetic Programming [2.275405513780208]
Geometric Semantic Genetic Programming (GSGP) は進化計算に基づく最先端の機械学習手法である。
C++におけるGSGPの効率的な実装は、この事実を悪用するが、その潜在能力は十分ではない。
結果は、最先端のシーケンシャル実装と比較して1000倍以上のスピードアップを示す。
論文 参考訳(メタデータ) (2021-06-08T00:58:39Z) - Speed Benchmarking of Genetic Programming Frameworks [1.1470070927586016]
遺伝的プログラミング(GP)は、設計による計算コストの負担に悩まされていることが知られている。
本研究では,ベクトル化および反復的実装手法の性能と進化性を比較するために,一連のベンチマークを用いている。
論文 参考訳(メタデータ) (2021-05-25T22:06:42Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical
Models [96.1052289276254]
この研究は、人気のあるDual Block-Coordinate Ascent原則に基づく新しいMAP-solverを導入している。
驚いたことに、性能の低い解法に小さな変更を加えることで、既存の解法を大きなマージンで大幅に上回る新しい解法MPLP++を導出します。
論文 参考訳(メタデータ) (2020-04-16T16:20:53Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。