論文の概要: Performance Analysis and Improvement of Parallel Differential Evolution
- arxiv url: http://arxiv.org/abs/2101.06599v1
- Date: Sun, 17 Jan 2021 05:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:14:19.405622
- Title: Performance Analysis and Improvement of Parallel Differential Evolution
- Title(参考訳): 並列微分進化の性能解析と改善
- Authors: Pan Zibin
- Abstract要約: 本稿では,微分進化(DE)の並列計算の設計を解析する。
MKL/CUDAと並列に実行可能な新しい指数クロスオーバー演算子(NEC)を提案する。
最後に、新しい並列DE構造をテストし、前者がはるかに高速であることを示しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential evolution (DE) is an effective global evolutionary optimization
algorithm using to solve global optimization problems mainly in a continuous
domain. In this field, researchers pay more attention to improving the
capability of DE to find better global solutions, however, the computational
performance of DE is also a very interesting aspect especially when the problem
scale is quite large. Firstly, this paper analyzes the design of parallel
computation of DE which can easily be executed in Math Kernel Library (MKL) and
Compute Unified Device Architecture (CUDA). Then the essence of the exponential
crossover operator is described and we point out that it cannot be used for
better parallel computation. Later, we propose a new exponential crossover
operator (NEC) that can be executed parallelly with MKL/CUDA. Next, the
extended experiments show that the new crossover operator can speed up DE
greatly. In the end, we test the new parallel DE structure, illustrating that
the former is much faster.
- Abstract(参考訳): 微分進化 (DE) は、主に連続領域における大域的最適化問題を解くために用いられる効果的な大域的進化最適化アルゴリズムである。
この分野では、より優れたグローバルソリューションを見つけるためにDreの能力向上に研究者はより注意を払うが、Dreの計算性能は特に問題スケールがかなり大きい場合に非常に興味深い側面である。
本稿では,Math Kernel Library (MKL) とCompute Unified Device Architecture (CUDA) で容易に実行できる DE の並列計算設計について分析する。
次に、指数的クロスオーバー演算子の本質を説明し、より優れた並列計算には使用できないことを指摘した。
その後、MKL/CUDAと並列に実行できる新しい指数的クロスオーバー演算子(NEC)を提案する。
次に、拡張実験により、新しいクロスオーバー演算子がdeを大幅に高速化できることが示されている。
最後に、新しい並列de構造をテストし、前者がずっと高速であることを示します。
関連論文リスト
- GPU Based Differential Evolution: New Insights and Comparative Study [7.5961910202572644]
この研究は、GPUベースの微分進化アルゴリズムの文献における主要なアーキテクチャ選択についてレビューする。
新しいGPUベースの数値最適化ベンチマークを導入し、GPUベースのDEMアルゴリズムを評価し比較する。
論文 参考訳(メタデータ) (2024-05-26T12:40:39Z) - Decreasing the Computing Time of Bayesian Optimization using
Generalizable Memory Pruning [56.334116591082896]
本稿では,任意のサロゲートモデルと取得関数で使用可能なメモリプルーニングとバウンダリ最適化のラッパーを示す。
BOを高次元または大規模データセット上で実行することは、この時間の複雑さのために難解になる。
すべてのモデル実装はMIT Supercloudの最先端コンピューティングハードウェア上で実行される。
論文 参考訳(メタデータ) (2023-09-08T14:05:56Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - FastDOG: Fast Discrete Optimization on GPU [23.281726932718232]
本稿では,構造化予測で発生する0-1整数線形プログラムを解くために,並列に並列なラグランジュ分解法を提案する。
我々の原始的アルゴリズムと双対アルゴリズムは、サブプロブレムとBDDに対する最適化の同期をほとんど必要としません。
問題に依存しない状態で、最先端の特殊アルゴリズムに近づいたり、優れていたりします。
論文 参考訳(メタデータ) (2021-11-19T15:20:10Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Batch Sequential Adaptive Designs for Global Optimization [5.825138898746968]
効率的なグローバル最適化(EGO)は、高価なブラックボックス最適化問題に対する最も一般的なSAD手法の1つである。
これらの複数点のEGO法では、重い計算とポイントのクラスタリングが障害となる。
本研究では, 改良されたサンプリング/インポータンス・リサンプリング(SIR)法を用いて, 「加速EGO」と呼ばれる新しいバッチSAD法を転送する。
提案したSADの効率は,次元が2~12の9つの古典的テスト関数によって検証される。
論文 参考訳(メタデータ) (2020-10-21T01:11:35Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Convergence of Meta-Learning with Task-Specific Adaptation over Partial
Parameters [152.03852111442114]
モデルに依存しないメタラーニング(MAML)は非常に成功したアルゴリズムメタラーニングの実践であるが、高い計算複雑性を持つ。
本稿では,その複雑さがANILの全体的な収束性能に大きく影響することを示す。
論文 参考訳(メタデータ) (2020-06-16T19:57:48Z) - Do optimization methods in deep learning applications matter? [0.0]
本稿では、どの最適化関数を使うか、さらに、どの関数が並列化の取り組みの恩恵を受けるかについて議論する。
実験では,標準CIFAR,MNIST,CartPole,FlappyBird実験における既製の最適化関数(CG,SGD,LM,L-BFGS)を比較した。
論文 参考訳(メタデータ) (2020-02-28T10:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。