論文の概要: GPU-accelerated Evolutionary Many-objective Optimization Using Tensorized NSGA-III
- arxiv url: http://arxiv.org/abs/2504.06067v1
- Date: Tue, 08 Apr 2025 14:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:15.611246
- Title: GPU-accelerated Evolutionary Many-objective Optimization Using Tensorized NSGA-III
- Title(参考訳): テンソル化NSGA-IIIを用いたGPU加速進化多目的最適化
- Authors: Hao Li, Zhenyu Liang, Ran Cheng,
- Abstract要約: 大規模多目的最適化のためのNSGA-IIIの完全テンソル化実装を提案する。
NSGA-IIIは、NSGA-IIIの正確な選択と変化のメカニズムを維持しながら、大きな加速を達成している。
その結果、NSGA-IIIは、NSGA-IIIのCPUバージョンよりも最大3629タイムのスピードアップを実現していることがわかった。
- 参考スコア(独自算出の注目度): 13.487945730611193
- License:
- Abstract: NSGA-III is one of the most widely adopted algorithms for tackling many-objective optimization problems. However, its CPU-based design severely limits scalability and computational efficiency. To address the limitations, we propose {TensorNSGA-III}, a fully tensorized implementation of NSGA-III that leverages GPU parallelism for large-scale many-objective optimization. Unlike conventional GPU-accelerated evolutionary algorithms that rely on heuristic approximations to improve efficiency, TensorNSGA-III maintains the exact selection and variation mechanisms of NSGA-III while achieving significant acceleration. By reformulating the selection process with tensorized data structures and an optimized caching strategy, our approach effectively eliminates computational bottlenecks inherent in traditional CPU-based and na\"ive GPU implementations. Experimental results on widely used numerical benchmarks show that TensorNSGA-III achieves speedups of up to $3629\times$ over the CPU version of NSGA-III. Additionally, we validate its effectiveness in multiobjective robotic control tasks, where it discovers diverse and high-quality behavioral solutions. Furthermore, we investigate the critical role of large population sizes in many-objective optimization and demonstrate the scalability of TensorNSGA-III in such scenarios. The source code is available at https://github.com/EMI-Group/evomo
- Abstract(参考訳): NSGA-IIIは、多目的最適化問題に対処するための最も広く採用されているアルゴリズムの1つである。
しかし、CPUベースの設計はスケーラビリティと計算効率を著しく制限している。
この制限に対処するために,大規模な多目的最適化にGPU並列性を活用するNSGA-IIIの完全テンソル化実装である {TensorNSGA-III} を提案する。
効率を改善するためにヒューリスティック近似に依存する従来のGPU加速進化アルゴリズムとは異なり、TensorNSGA-IIIはNSGA-IIIの正確な選択と変動機構を維持しながら、大幅な加速を実現している。
テンソル化データ構造と最適化されたキャッシュ戦略で選択プロセスを再構築することにより、従来のCPUベースおよびna\\\型GPU実装に固有の計算ボトルネックを効果的に除去する。
広く使われている数値ベンチマークの結果、TensorNSGA-IIIは、NSGA-IIIのCPUバージョンよりも最大3629\times$のスピードアップを達成した。
さらに,多目的ロボット制御タスクにおいて,多種多様かつ高品質な行動解が発見できる効果を検証した。
さらに,多目的最適化における大集団規模の重要性を考察し,このようなシナリオにおけるTensorNSGA-IIIのスケーラビリティを実証する。
ソースコードはhttps://github.com/EMI-Group/evomoで入手できる。
関連論文リスト
- Accelerating Sparse Graph Neural Networks with Tensor Core Optimization [0.0]
グラフセンスネットワーク(GNN)は、ソーシャルネットワーク、バイオインフォマティクス、計算、レコメンデーションシステムなどの分野に広く応用されている。
従来の計算手法は、GNNの性能要求を満たすには不十分である。
最近の研究では、CoresとCoresを使った並列アクセラレーションが検討されているが、大きな課題が続いている。
論文 参考訳(メタデータ) (2024-12-16T01:57:53Z) - Octopus Inspired Optimization Algorithm: Multi-Level Structures and Parallel Computing Strategies [21.96416191573034]
Octopus Inspired Optimization (OIO)アルゴリズムは、タコの神経構造、特にその階層的および分散化された相互作用特性にインスパイアされている。
OIOは、特にマルチモーダル関数や高次元最適化問題を扱う場合、より高速な収束と精度を示す。
ロボット経路計画、サプライチェーン管理、エネルギーシステム管理など、高速で効率的で堅牢な最適化手法を必要とするアプリケーションシナリオに特に適している。
論文 参考訳(メタデータ) (2024-10-10T14:27:38Z) - Compact NSGA-II for Multi-objective Feature Selection [0.24578723416255746]
特徴選択を,分類精度を最大化し,選択した特徴数の最小化を目的とした多目的バイナリ最適化タスクとして定義する。
最適な特徴を選択するために,2進圧縮型NSGA-II (CNSGA-II) アルゴリズムを提案する。
我々の知る限りでは、これは特徴選択のために提案された最初のコンパクトな多目的アルゴリズムである。
論文 参考訳(メタデータ) (2024-02-20T01:10:12Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - A Mathematical Runtime Analysis of the Non-dominated Sorting Genetic
Algorithm III (NSGA-III) [9.853329403413701]
NSGA-II (Non-Maninated Sorting Genetic Algorithm II) は、実世界の応用において最も顕著な多目的進化アルゴリズムである。
NSGA-IIIは2つ以上の目的をうまく扱うことを目的としたNSGA-IIの改良である。
論文 参考訳(メタデータ) (2022-11-15T15:10:36Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Optimizing Memory Efficiency of Graph NeuralNetworks on Edge Computing
Platforms [10.045922468883486]
グラフニューラルネットワーク(GNN)は、さまざまな産業タスクで最先端のパフォーマンスを達成しました。
GNN推論のメモリ効率最適化のための特徴分解手法を提案する。
提案されたアプローチは、さまざまなGNNモデルに対する優れた最適化を達成し、幅広いデータセットをカバーし、推論を最大3倍に高速化する。
論文 参考訳(メタデータ) (2021-04-07T11:15:12Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。