論文の概要: GPU-accelerated Evolutionary Many-objective Optimization Using Tensorized NSGA-III
- arxiv url: http://arxiv.org/abs/2504.06067v1
- Date: Tue, 08 Apr 2025 14:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 16:48:06.095462
- Title: GPU-accelerated Evolutionary Many-objective Optimization Using Tensorized NSGA-III
- Title(参考訳): テンソル化NSGA-IIIを用いたGPU加速進化多目的最適化
- Authors: Hao Li, Zhenyu Liang, Ran Cheng,
- Abstract要約: 大規模多目的最適化のためのNSGA-IIIの完全テンソル化実装を提案する。
NSGA-IIIは、NSGA-IIIの正確な選択と変化のメカニズムを維持しながら、大きな加速を達成している。
その結果、NSGA-IIIは、NSGA-IIIのCPUバージョンよりも最大3629タイムのスピードアップを実現していることがわかった。
- 参考スコア(独自算出の注目度): 13.487945730611193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NSGA-III is one of the most widely adopted algorithms for tackling many-objective optimization problems. However, its CPU-based design severely limits scalability and computational efficiency. To address the limitations, we propose {TensorNSGA-III}, a fully tensorized implementation of NSGA-III that leverages GPU parallelism for large-scale many-objective optimization. Unlike conventional GPU-accelerated evolutionary algorithms that rely on heuristic approximations to improve efficiency, TensorNSGA-III maintains the exact selection and variation mechanisms of NSGA-III while achieving significant acceleration. By reformulating the selection process with tensorized data structures and an optimized caching strategy, our approach effectively eliminates computational bottlenecks inherent in traditional CPU-based and na\"ive GPU implementations. Experimental results on widely used numerical benchmarks show that TensorNSGA-III achieves speedups of up to $3629\times$ over the CPU version of NSGA-III. Additionally, we validate its effectiveness in multiobjective robotic control tasks, where it discovers diverse and high-quality behavioral solutions. Furthermore, we investigate the critical role of large population sizes in many-objective optimization and demonstrate the scalability of TensorNSGA-III in such scenarios. The source code is available at https://github.com/EMI-Group/evomo
- Abstract(参考訳): NSGA-IIIは、多目的最適化問題に対処するための最も広く採用されているアルゴリズムの1つである。
しかし、CPUベースの設計はスケーラビリティと計算効率を著しく制限している。
この制限に対処するために,大規模な多目的最適化にGPU並列性を活用するNSGA-IIIの完全テンソル化実装である {TensorNSGA-III} を提案する。
効率を改善するためにヒューリスティック近似に依存する従来のGPU加速進化アルゴリズムとは異なり、TensorNSGA-IIIはNSGA-IIIの正確な選択と変動機構を維持しながら、大幅な加速を実現している。
テンソル化データ構造と最適化されたキャッシュ戦略で選択プロセスを再構築することにより、従来のCPUベースおよびna\\\型GPU実装に固有の計算ボトルネックを効果的に除去する。
広く使われている数値ベンチマークの結果、TensorNSGA-IIIは、NSGA-IIIのCPUバージョンよりも最大3629\times$のスピードアップを達成した。
さらに,多目的ロボット制御タスクにおいて,多種多様かつ高品質な行動解が発見できる効果を検証した。
さらに,多目的最適化における大集団規模の重要性を考察し,このようなシナリオにおけるTensorNSGA-IIIのスケーラビリティを実証する。
ソースコードはhttps://github.com/EMI-Group/evomoで入手できる。
関連論文リスト
- Second-order Optimization of Gaussian Splats with Importance Sampling [51.95046424364725]
3D Gaussian Splatting (3DGS) は、高品質で高速な推論時間のため、新しいビューレンダリングに広く用いられている。
本稿では,Levenberg-Marquardt (LM) と Conjugate Gradient (CG) に基づく新しい2階最適化手法を提案する。
提案手法は標準LMよりも3倍の高速化を実現し,ガウス数が少ない場合のAdamを6倍の6倍の速さで上回る。
論文 参考訳(メタデータ) (2025-04-17T12:52:08Z) - Bridging Evolutionary Multiobjective Optimization and GPU Acceleration via Tensorization [11.508416084439443]
進化的多目的最適化(EMO)は過去20年間に大きく進歩してきた。
従来のEMOアルゴリズムは、並列性とスケーラビリティが不十分なため、大幅な性能制限に直面している。
テンソル化手法を用いてGPU上でのEMOアルゴリズムの並列化を提案する。
実験の結果, テンソル化EMOアルゴリズムはCPUベースと比較して最大1113倍の高速化を実現していることがわかった。
論文 参考訳(メタデータ) (2025-03-26T07:30:23Z) - DashGaussian: Optimizing 3D Gaussian Splatting in 200 Seconds [71.37326848614133]
3DGSの最適化複雑性に関するスケジューリング手法であるDashGaussianを提案する。
提案手法は, 各種3DGSバックボーンの最適化を平均45.7%高速化する。
論文 参考訳(メタデータ) (2025-03-24T07:17:27Z) - Accelerating Sparse Graph Neural Networks with Tensor Core Optimization [0.0]
グラフセンスネットワーク(GNN)は、ソーシャルネットワーク、バイオインフォマティクス、計算、レコメンデーションシステムなどの分野に広く応用されている。
従来の計算手法は、GNNの性能要求を満たすには不十分である。
最近の研究では、CoresとCoresを使った並列アクセラレーションが検討されているが、大きな課題が続いている。
論文 参考訳(メタデータ) (2024-12-16T01:57:53Z) - Octopus Inspired Optimization Algorithm: Multi-Level Structures and Parallel Computing Strategies [21.96416191573034]
Octopus Inspired Optimization (OIO)アルゴリズムは、タコの神経構造、特にその階層的および分散化された相互作用特性にインスパイアされている。
OIOは、特にマルチモーダル関数や高次元最適化問題を扱う場合、より高速な収束と精度を示す。
ロボット経路計画、サプライチェーン管理、エネルギーシステム管理など、高速で効率的で堅牢な最適化手法を必要とするアプリケーションシナリオに特に適している。
論文 参考訳(メタデータ) (2024-10-10T14:27:38Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - A Mathematical Runtime Analysis of the Non-dominated Sorting Genetic
Algorithm III (NSGA-III) [9.853329403413701]
NSGA-II (Non-Maninated Sorting Genetic Algorithm II) は、実世界の応用において最も顕著な多目的進化アルゴリズムである。
NSGA-IIIは2つ以上の目的をうまく扱うことを目的としたNSGA-IIの改良である。
論文 参考訳(メタデータ) (2022-11-15T15:10:36Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Optimizing Memory Efficiency of Graph NeuralNetworks on Edge Computing
Platforms [10.045922468883486]
グラフニューラルネットワーク(GNN)は、さまざまな産業タスクで最先端のパフォーマンスを達成しました。
GNN推論のメモリ効率最適化のための特徴分解手法を提案する。
提案されたアプローチは、さまざまなGNNモデルに対する優れた最適化を達成し、幅広いデータセットをカバーし、推論を最大3倍に高速化する。
論文 参考訳(メタデータ) (2021-04-07T11:15:12Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。