論文の概要: Accelerating the Evolutionary Algorithms by Gaussian Process Regression
with $\epsilon$-greedy acquisition function
- arxiv url: http://arxiv.org/abs/2210.06814v1
- Date: Thu, 13 Oct 2022 07:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:56:42.681357
- Title: Accelerating the Evolutionary Algorithms by Gaussian Process Regression
with $\epsilon$-greedy acquisition function
- Title(参考訳): $\epsilon$-greedy 獲得関数によるガウス過程回帰による進化的アルゴリズムの高速化
- Authors: Rui Zhong, Enzhi Zhang, Masaharu Munetomo
- Abstract要約: 本稿では,最適化の収束を早めるために,エリート個人を推定する新しい手法を提案する。
我々の提案には、エリート個人を推定し、最適化の収束を加速する幅広い見通しがある。
- 参考スコア(独自算出の注目度): 2.7716102039510564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel method to estimate the elite individual to
accelerate the convergence of optimization. Inspired by the Bayesian
Optimization Algorithm (BOA), the Gaussian Process Regression (GPR) is applied
to approximate the fitness landscape of original problems based on every
generation of optimization. And simple but efficient $\epsilon$-greedy
acquisition function is employed to find a promising solution in the surrogate
model. Proximity Optimal Principle (POP) states that well-performed solutions
have a similar structure, and there is a high probability of better solutions
existing around the elite individual. Based on this hypothesis, in each
generation of optimization, we replace the worst individual in Evolutionary
Algorithms (EAs) with the elite individual to participate in the evolution
process. To illustrate the scalability of our proposal, we combine our proposal
with the Genetic Algorithm (GA), Differential Evolution (DE), and CMA-ES.
Experimental results in CEC2013 benchmark functions show our proposal has a
broad prospect to estimate the elite individual and accelerate the convergence
of optimization.
- Abstract(参考訳): 本稿では,最適化の収束を加速するためにエリート個体を推定する新しい手法を提案する。
ベイズ最適化アルゴリズム (boa) にインスパイアされたガウス過程回帰 (gpr) は、最適化の各世代に基づいて元の問題の適合環境を近似するために適用される。
そして、単純だが効率的な$\epsilon$-greedy取得関数を使用して、代理モデルに有望な解決策を見つける。
POP (Proximity Optimal Principle) は、よく達成された解は類似した構造を持ち、エリート個人の周りにより良い解が存在する確率が高いと述べている。
この仮説に基づいて、各世代の最適化において、進化アルゴリズム(EA)における最悪の個人を、進化過程に参加するエリート個人に置き換える。
提案手法のスケーラビリティを説明するため,提案手法を遺伝的アルゴリズム(GA),微分進化(DE),CMA-ESと組み合わせた。
CEC2013ベンチマーク関数の実験結果から,提案手法はエリート個体を推定し,最適化の収束を加速する可能性が広く示唆された。
関連論文リスト
- Integrating Chaotic Evolutionary and Local Search Techniques in Decision Space for Enhanced Evolutionary Multi-Objective Optimization [1.8130068086063336]
本稿では,SOMMOP(Single-Objective Multi-Modal Optimization)とMOO(Multi-Objective Optimization)の両方に焦点を当てる。
SOMMOPではニッチ技術とカオス進化を統合し,ガウス突然変異を併用したパーシスタンス・クラスタリングを行った。
MOOでは,これらの手法を不確実性に基づく選択,適応的チューニングを組み込んだ包括的フレームワークに拡張し,決定論的群集に半径(R)の概念を導入する。
論文 参考訳(メタデータ) (2024-11-12T15:18:48Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Combining Kernelized Autoencoding and Centroid Prediction for Dynamic
Multi-objective Optimization [3.431120541553662]
本稿では,カーネル化された自己コード進化探索と遠近法に基づく予測を組み合わせた統一パラダイムを提案する。
提案手法は,多くの複雑なベンチマーク問題に対して,最先端の5つのアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-12-02T00:24:22Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Distributed Evolution Strategies for Black-box Stochastic Optimization [42.90600124972943]
この研究は、分散ブラックボックス最適化への進化的アプローチに関するものである。
各作業者は、アルゴリズムによる問題の近似を個別に解くことができる。
問題のロバスト性を大幅に改善する2つの代替シミュレーション手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T11:18:41Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Better call Surrogates: A hybrid Evolutionary Algorithm for
Hyperparameter optimization [18.359749929678635]
機械学習(ML)モデルのハイパーパラメータ最適化のための代理支援進化アルゴリズム(EA)を提案する。
提案したSTEADEモデルは,まずRadialBasis関数を用いて目的関数のランドスケープを推定し,その知識を微分進化(differial Evolution)と呼ばれるEA技術に伝達する。
NeurIPS 2020のブラックボックス最適化課題の一環として、ハイパーパラメータ最適化問題に関するモデルを実証的に評価し、STEADEがバニラEAにもたらした改善を実証しました。
論文 参考訳(メタデータ) (2020-12-11T16:19:59Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。