論文の概要: Bridging Evolutionary Multiobjective Optimization and GPU Acceleration via Tensorization
- arxiv url: http://arxiv.org/abs/2503.20286v1
- Date: Wed, 26 Mar 2025 07:30:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:52.194189
- Title: Bridging Evolutionary Multiobjective Optimization and GPU Acceleration via Tensorization
- Title(参考訳): ブリッジング進化的多目的最適化とテンソル化によるGPU加速
- Authors: Zhenyu Liang, Hao Li, Naiwei Yu, Kebin Sun, Ran Cheng,
- Abstract要約: 進化的多目的最適化(EMO)は過去20年間に大きく進歩してきた。
従来のEMOアルゴリズムは、並列性とスケーラビリティが不十分なため、大幅な性能制限に直面している。
本稿では,Emphtensorization法を用いてGPU上でのEMOアルゴリズムの並列化を提案する。
実験の結果, テンソル化EMOアルゴリズムはCPUベースと比較して最大1113(times)の高速化を実現していることがわかった。
- 参考スコア(独自算出の注目度): 11.508416084439443
- License:
- Abstract: Evolutionary multiobjective optimization (EMO) has made significant strides over the past two decades. However, as problem scales and complexities increase, traditional EMO algorithms face substantial performance limitations due to insufficient parallelism and scalability. While most work has focused on algorithm design to address these challenges, little attention has been given to hardware acceleration, thereby leaving a clear gap between EMO algorithms and advanced computing devices, such as GPUs. To bridge the gap, we propose to parallelize EMO algorithms on GPUs via the \emph{tensorization} methodology. By employing tensorization, the data structures and operations of EMO algorithms are transformed into concise tensor representations, which seamlessly enables automatic utilization of GPU computing. We demonstrate the effectiveness of our approach by applying it to three representative EMO algorithms: NSGA-III, MOEA/D, and HypE. To comprehensively assess our methodology, we introduce a multiobjective robot control benchmark using a GPU-accelerated physics engine. Our experiments show that the tensorized EMO algorithms achieve speedups of up to 1113\(\times\) compared to their CPU-based counterparts, while maintaining solution quality and effectively scaling population sizes to hundreds of thousands. Furthermore, the tensorized EMO algorithms efficiently tackle complex multiobjective robot control tasks, producing high-quality solutions with diverse behaviors. Source codes are available at https://github.com/EMI-Group/evomo.
- Abstract(参考訳): 進化的多目的最適化(EMO)は過去20年間に大きく進歩してきた。
しかし、問題スケールと複雑さが増大するにつれて、従来のEMOアルゴリズムは並列性やスケーラビリティが不十分なため、大幅な性能制限に直面している。
ほとんどの研究はこれらの課題に対処するアルゴリズム設計に重点を置いているが、ハードウェアアクセラレーションにはほとんど注目されていないため、EMOアルゴリズムとGPUのような先進的なコンピューティングデバイスとの間に明確なギャップが残されている。
本稿では,このギャップを埋めるため,GPU上でのEMOアルゴリズムの並列化について,emph{tensorization}法を用いて提案する。
テンソル化を利用することで、EMOアルゴリズムのデータ構造と演算を簡潔なテンソル表現に変換することで、GPUコンピューティングの自動利用をシームレスに実現する。
NSGA-III, MOEA/D, HypE の3つの代表的な EMO アルゴリズムに適用することにより,提案手法の有効性を実証する。
提案手法を総合的に評価するために,GPU加速物理エンジンを用いた多目的ロボット制御ベンチマークを導入する。
実験の結果, テンソル化EMOアルゴリズムはCPUベースと比較して最大1113\(\times\)の高速化を実現し, 解の質を維持し, 人口規模を数十万に効果的に拡張した。
さらに、テンソル化EMOアルゴリズムは、複雑な多目的ロボット制御タスクに効率よく取り組み、多様な振る舞いを持つ高品質な解を生成する。
ソースコードはhttps://github.com/EMI-Group/evomo.comで入手できる。
関連論文リスト
- Scaling Policy Gradient Quality-Diversity with Massive Parallelization via Behavioral Variations [4.787389127632926]
大規模並列化でスケールアップ可能な,高速で,サンプル効率のよいMEベースアルゴリズムを提案する。
実験の結果、ASCII-MEは1つのGPU上で250秒未満で、多種多様な高性能なディープニューラルネットワークポリシーを生成できることがわかった。
論文 参考訳(メタデータ) (2025-01-30T19:56:04Z) - Harnessing the Power of Gradient-Based Simulations for Multi-Objective Optimization in Particle Accelerators [5.565261874218803]
本稿では, 粒子加速器の深部微分可能強化学習アルゴリズムを用いてMOO問題の解法における微分可能性の効果を示す。
基礎となる問題は、個々の状態と行動の両方に厳密な制約を課し、ビームのエネルギー要求に対する累積的(グローバル)制約を課している。
論文 参考訳(メタデータ) (2024-11-07T15:55:05Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Illustrating the Efficiency of Popular Evolutionary Multi-Objective Algorithms Using Runtime Analysis [3.748255320979002]
一般的な進化的多目的アルゴリズム(EMO)は、単純な(G)SEMOアルゴリズムと同じ性能を保証する。
我々は、GSEMOがOneTrapZeroTrapを最適化するために少なくとも$nn$のフィットネス評価を必要とするのに対し、一般的なEMOアルゴリズムNSGA-II、NSGA-III、SMS-EMOAは、ジェノタイプ重複を避けるための軽度な多様性メカニズムで拡張されているが、期待されるフィットネス評価は$O(n log n)$である。
論文 参考訳(メタデータ) (2024-05-22T12:09:00Z) - Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - Multi-Objective Optimization Using Adaptive Distributed Reinforcement Learning [8.471466670802815]
本稿では,多目的・マルチエージェント強化学習(MARL)アルゴリズムを提案する。
我々はエッジクラウドコンピューティングを用いたITS環境でアルゴリズムをテストする。
また,本アルゴリズムは,モジュール化および非同期オンライントレーニング手法により,様々な実用上の問題にも対処する。
論文 参考訳(メタデータ) (2024-03-13T18:05:16Z) - EMO: Episodic Memory Optimization for Few-Shot Meta-Learning [69.50380510879697]
メタ学習のためのエピソード記憶最適化は、EMOと呼ばれ、脳の記憶から過去の学習経験を思い出す人間の能力にインスパイアされている。
EMOは、限られた数の例によって提供される勾配が非形式的である場合でも、パラメータを正しい方向に更新する。
EMOは、ほとんど数ショットの分類ベンチマークでうまくスケールし、最適化ベースのメタラーニング手法の性能を改善している。
論文 参考訳(メタデータ) (2023-06-08T13:39:08Z) - Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts [60.1586169973792]
M$3$ViTは、Mix-of-experts (MoE)を導入した最新のマルチタスクViTモデルである。
MoEは精度の向上と80%以上の削減計算を実現しているが、FPGAに効率的なデプロイを行う上での課題は残されている。
Edge-MoEと呼ばれる私たちの研究は、アーキテクチャの革新の集合を伴って、マルチタスクのViTのための最初のエンドツーエンドFPGAアクセラレータを導入するという課題を解決します。
論文 参考訳(メタデータ) (2023-05-30T02:24:03Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Towards making the most of NLP-based device mapping optimization for
OpenCL kernels [5.6596607119831575]
我々は、加速されたOpenCLカーネルのための最適なデバイス選択(CPUまたはGPU)の問題に取り組むCummins et al.、すなわちDeeptuneの開発を拡張した。
ソースコードの文脈情報を拡張した4つの異なるモデルを提案する。
実験の結果,提案手法はCumminsらの手法を上回り,予測精度を最大4%向上させることがわかった。
論文 参考訳(メタデータ) (2022-08-30T10:20:55Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。