論文の概要: LEA: Beyond Evolutionary Algorithms via Learned Optimization Strategy
- arxiv url: http://arxiv.org/abs/2304.09599v1
- Date: Wed, 19 Apr 2023 12:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:42:36.090762
- Title: LEA: Beyond Evolutionary Algorithms via Learned Optimization Strategy
- Title(参考訳): LEA: 学習最適化戦略による進化的アルゴリズムを超えて
- Authors: Kai Wu, Penghui Liu, Jing Liu
- Abstract要約: ブラックボックス最適化のための学習進化アルゴリズム(LEA)を提案する。
LEAは目的のタスクに高い適応性を持ち、計算コストを抑えてより良いソリューションを得ることができる。
LEAはまた、目標タスクの低忠実度情報を効果的に活用し、効率的な最適化戦略を構築することができる。
- 参考スコア(独自算出の注目度): 12.222260828615486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evolutionary algorithms (EAs) have emerged as a powerful framework for
expensive black-box optimization. Obtaining better solutions with less
computational cost is essential and challenging for black-box optimization. The
most critical obstacle is figuring out how to effectively use the target task
information to form an efficient optimization strategy. However, current
methods are weak due to the poor representation of the optimization strategy
and the inefficient interaction between the optimization strategy and the
target task. To overcome the above limitations, we design a learned EA (LEA) to
realize the move from hand-designed optimization strategies to learned
optimization strategies, including not only hyperparameters but also update
rules. Unlike traditional EAs, LEA has high adaptability to the target task and
can obtain better solutions with less computational cost. LEA is also able to
effectively utilize the low-fidelity information of the target task to form an
efficient optimization strategy. The experimental results on one synthetic
case, CEC 2013, and two real-world cases show the advantages of learned
optimization strategies over human-designed baselines. In addition, LEA is
friendly to the acceleration provided by Graphics Processing Units and runs 102
times faster than unaccelerated EA when evolving 32 populations, each
containing 6400 individuals.
- Abstract(参考訳): 進化的アルゴリズム(EA)は高価なブラックボックス最適化のための強力なフレームワークとして登場した。
ブラックボックス最適化には計算コストの削減によるより良いソリューションの実現が不可欠である。
最も重要な障害は、ターゲットのタスク情報を効果的に利用して効率的な最適化戦略を構築する方法を見つけることである。
しかし、最適化戦略の貧弱な表現と最適化戦略と目標タスクの間の非効率な相互作用により、現在の手法は弱い。
上記の制限を克服するために,我々は,手作り最適化戦略から学習最適化戦略への移行を実現するための学習ea(lea)を設計した。
従来のEAとは異なり、LEAは目的のタスクに高い適応性を持ち、計算コストの少ないより良いソリューションを得ることができる。
LEAはまた、目標タスクの低忠実度情報を有効活用して効率的な最適化戦略を構築することができる。
CEC 2013と2つの実世界のケースの実験結果は、人間の設計したベースラインよりも学習された最適化戦略の利点を示している。
さらに、LEAはグラフィックス処理ユニットが提供する加速度に親しみがあり、32の個体群を進化させると、それぞれ6400人の個体を含む非加速EAの102倍の速度で動作する。
関連論文リスト
- Deep Insights into Automated Optimization with Large Language Models and Evolutionary Algorithms [3.833708891059351]
大きな言語モデル(LLM)と進化的アルゴリズム(EA)は、制限を克服し、最適化をより自動化するための有望な新しいアプローチを提供する。
LLMは最適化戦略の生成、洗練、解釈が可能な動的エージェントとして機能する。
EAは進化作用素を通して、複雑な解空間を効率的に探索する。
論文 参考訳(メタデータ) (2024-10-28T09:04:49Z) - Enhanced Optimization Strategies to Design an Underactuated Hand Exoskeleton [0.7639610349097473]
本研究は,不動手外骨格(U-HEx)の設計過程について述べる。
この最適化は、遺伝的アルゴリズム、ビッグバン・ビッグCrunchアルゴリズム、および多目的最適化のためのそれらのバージョンに依存している。
論文 参考訳(メタデータ) (2024-08-14T09:00:49Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - MetaML: Automating Customizable Cross-Stage Design-Flow for Deep
Learning Acceleration [5.2487252195308844]
本稿では,ディープニューラルネットワーク(DNN)ハードウェアアクセラレータのための新しい最適化フレームワークを提案する。
設計フローアーキテクチャ構築のための新しい最適化と変換タスクを導入する。
以上の結果から,DSP使用率92%,LUT使用率89%の大幅な削減が得られた。
論文 参考訳(メタデータ) (2023-06-14T21:06:07Z) - Evolutionary Solution Adaption for Multi-Objective Metal Cutting Process
Optimization [59.45414406974091]
我々は,従来の最適化タスクから解を転送するアルゴリズムの能力を研究することのできる,システムの柔軟性のためのフレームワークを提案する。
NSGA-IIの柔軟性を2つの変種で検討し,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)活性化あるいは非活性化の異なる可能性に対応する能動的非アクティブなジェノタイプについて検討した。
その結果,標準NSGA-IIによる適応は目標目標への最適化に必要な評価回数を大幅に削減し,提案した変種は適応コストをさらに向上することがわかった。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - B2Opt: Learning to Optimize Black-box Optimization with Little Budget [15.95406229086798]
本稿では,人的介入を伴わずに,目標タスクや安価なサロゲートタスクから最適化戦略を自動学習する強力な最適化フレームワークを設計する。
B2Optと呼ばれるディープニューラルネットワークフレームワークは、適合テストの生存率に基づく最適化戦略のより強力な表現を持っている。
最先端のBBOベースラインと比較して、B2Optは機能評価コストを低減して、複数桁の性能向上を実現することができる。
論文 参考訳(メタデータ) (2023-04-24T01:48:01Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - Mind Your Solver! On Adversarial Attack and Defense for Combinatorial
Optimization [111.78035414744045]
我々は,最適解法に対する敵攻撃と防御のメカニズムの開発を主導する。
本稿では, グラフ構造を改良し, 解法の堅牢性を高めるための, 単純かつ効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-12-28T15:10:15Z) - Transferable Graph Optimizers for ML Compilers [18.353830282858834]
計算グラフ最適化(GO)のためのエンドツーエンドで転送可能な深層強化学習法を提案する。
GOは個々のノードに対して自動回帰ではなく,グラフ全体の決定を生成する。
GOは、人間の専門家よりも21%改善し、先行技術よりも18%改善し、15倍早く収束する。
論文 参考訳(メタデータ) (2020-10-21T20:28:33Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。