論文の概要: Coefficient Mutation in the Gene-pool Optimal Mixing Evolutionary
Algorithm for Symbolic Regression
- arxiv url: http://arxiv.org/abs/2204.12159v1
- Date: Tue, 26 Apr 2022 08:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 12:15:52.675908
- Title: Coefficient Mutation in the Gene-pool Optimal Mixing Evolutionary
Algorithm for Symbolic Regression
- Title(参考訳): シンボリック回帰のための遺伝子プール最適混合進化アルゴリズムにおける係数変異
- Authors: Marco Virgolin, Peter A. N. Bosman
- Abstract要約: GP-GOMEAはシンボリック回帰のアルゴリズムである。
GP-GOMEA に係数を最適化する簡単な手法が組み込まれていることを示す。
係数変異は、基礎となる方程式をかなりの量で再発見するのに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, the genetic programming version of the gene-pool optimal mixing
evolutionary algorithm (GP-GOMEA) is among the top-performing algorithms for
symbolic regression (SR). A key strength of GP-GOMEA is its way of performing
variation, which dynamically adapts to the emergence of patterns in the
population. However, GP-GOMEA lacks a mechanism to optimize coefficients. In
this paper, we study how fairly simple approaches for optimizing coefficients
can be integrated into GP-GOMEA. In particular, we considered two variants of
Gaussian coefficient mutation. We performed experiments using different
settings on 23 benchmark problems, and used machine learning to estimate what
aspects of coefficient mutation matter most. We find that the most important
aspect is that the number of coefficient mutation attempts needs to be
commensurate with the number of mixing operations that GP-GOMEA performs. We
applied GP-GOMEA with the best-performing coefficient mutation approach to the
data sets of SRBench, a large SR benchmark, for which a ground-truth underlying
equation is known. We find that coefficient mutation can help re-discovering
the underlying equation by a substantial amount, but only when no noise is
added to the target variable. In the presence of noise, GP-GOMEA with
coefficient mutation discovers alternative but similarly-accurate equations.
- Abstract(参考訳): 現在、遺伝子プール最適混合進化アルゴリズム(GP-GOMEA)の遺伝的プログラミングバージョンは、シンボル回帰(SR)の最も優れたアルゴリズムの一つである。
GP-GOMEAの重要な強みは、個体群におけるパターンの出現に動的に適応する、変異の実行方法である。
しかし、GP-GOMEAには係数を最適化するメカニズムがない。
本稿では,係数の最適化をGP-GOMEAに組み込む方法について検討する。
特にガウス係数変異の2つの変種を検討した。
23のベンチマーク問題に対して異なる設定で実験を行い,機械学習を用いて係数変動の最も重要な側面を推定した。
最も重要な点は、gp-gomeaが実行する混合操作の数で係数の変異が試みられる回数を満たさなければならないことである。
大規模SRベンチマークであるSRBenchのデータセットに対して, GP-GOMEAを最適性能の係数変異法で適用した。
係数変異は、基礎となる方程式を相当量の量で再発見するのに役立つが、ターゲット変数に雑音が加わらない場合に限られる。
ノイズの存在下では、係数変異を持つGP-GOMEAは、代替だが同様の精度の方程式を発見する。
関連論文リスト
- A convex formulation of covariate-adjusted Gaussian graphical models via natural parametrization [6.353176264090468]
共発現量軌跡(eQTL)研究では、遺伝子の平均発現レベルと条件独立構造の両方が、それらの遺伝子に局所的な変異によって調節される可能性がある。
共調整GGMを推定する既存の方法は、平均が共変量に依存するか、平均と精度の行列を同時に推定する固有の非賢さのため、スケーリングの仮定に苦しむことしか許さない。
論文 参考訳(メタデータ) (2024-10-08T20:02:10Z) - Sparse Gaussian Process Hyperparameters: Optimize or Integrate? [5.949779668853556]
本稿では, MCMC をハイパーパラメーター後部から試料として用いたスパースガウス過程回帰法を提案する。
本稿では,文学における自然ベースラインと変分GP(SVGP)とを,広範な計算解析とともに比較する。
論文 参考訳(メタデータ) (2022-11-04T14:06:59Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Computationally-efficient initialisation of GPs: The generalised
variogram method [1.0312968200748118]
我々の戦略は,MLトレーニングの初期条件を見つけるための事前訓練段階として利用することができる。
合成および実世界のデータを用いて,異なるカーネルに対して,精度,MLとの整合性,計算複雑性を実験的に検証する。
論文 参考訳(メタデータ) (2022-10-11T12:13:21Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Effective Mutation Rate Adaptation through Group Elite Selection [50.88204196504888]
本稿では,GESMR(Group Elite Selection of Mutation Rates)アルゴリズムを提案する。
GESMRは解の集団とMRの集団を共進化させ、各MRは解群に割り当てられる。
同じ数の関数評価とオーバーヘッドのほとんどないGESMRは、以前のアプローチよりも早く、より良いソリューションに収束する。
論文 参考訳(メタデータ) (2022-04-11T01:08:26Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Genetic Programming is Naturally Suited to Evolve Bagging Ensembles [0.0]
適合度評価と選択の微妙な変化は、単純で従来のGPアルゴリズムを効率的に進化させるのに十分であることを示す。
我々のアルゴリズムは、最先端のアンサンブルと非アンサンブルGPアルゴリズムと非常によく比較できる。
論文 参考訳(メタデータ) (2020-09-13T16:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。