論文の概要: Taylor Genetic Programming for Symbolic Regression
- arxiv url: http://arxiv.org/abs/2205.09751v1
- Date: Thu, 28 Apr 2022 13:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 21:20:13.109113
- Title: Taylor Genetic Programming for Symbolic Regression
- Title(参考訳): 記号回帰のためのテイラー遺伝的プログラミング
- Authors: Baihe He, Qiang Lu, Qingyun Yang, Jake Luo and Zhiguang Wang
- Abstract要約: 遺伝的プログラミング(GP)は、記号回帰(SR)問題を解決するために一般的に用いられる手法である。
そこで我々はTaylorGP (Taylor Genetic Programming) を提案し,データセットに適合するシンボリック方程式を近似する。
TaylorGPは9つのベースライン法よりも精度が高いだけでなく、安定した結果を見つけるのにも速い。
- 参考スコア(独自算出の注目度): 5.371028373792346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Genetic programming (GP) is a commonly used approach to solve symbolic
regression (SR) problems. Compared with the machine learning or deep learning
methods that depend on the pre-defined model and the training dataset for
solving SR problems, GP is more focused on finding the solution in a search
space. Although GP has good performance on large-scale benchmarks, it randomly
transforms individuals to search results without taking advantage of the
characteristics of the dataset. So, the search process of GP is usually slow,
and the final results could be unstable.To guide GP by these characteristics,
we propose a new method for SR, called Taylor genetic programming (TaylorGP)
(Code and appendix at https://kgae-cup.github.io/TaylorGP/). TaylorGP leverages
a Taylor polynomial to approximate the symbolic equation that fits the dataset.
It also utilizes the Taylor polynomial to extract the features of the symbolic
equation: low order polynomial discrimination, variable separability, boundary,
monotonic, and parity. GP is enhanced by these Taylor polynomial techniques.
Experiments are conducted on three kinds of benchmarks: classical SR, machine
learning, and physics. The experimental results show that TaylorGP not only has
higher accuracy than the nine baseline methods, but also is faster in finding
stable results.
- Abstract(参考訳): 遺伝的プログラミング(GP)は、記号回帰(SR)問題を解決するために一般的に用いられる手法である。
事前定義されたモデルとSR問題を解決するトレーニングデータセットに依存する機械学習やディープラーニングの手法と比較して、GPは検索空間におけるソリューションの発見に重点を置いている。
GPは大規模ベンチマークでは優れた性能を示すが、データセットの特徴を生かさず、ランダムに個人を検索結果に変換する。
そこで、GPの探索過程は通常遅く、最終結果は不安定であり、これらの特徴によりGPを誘導するために、TaylorGPと呼ばれるSRの新しい手法を提案する(コードと付録はhttps://kgae-cup.github.io/TaylorGP/)。
TaylorGP はテイラー多項式を利用して、データセットに適合するシンボリック方程式を近似する。
また、テイラー多項式を用いて、低次多項式判別、可変分離性、境界、単調、パリティといった記号方程式の特徴を抽出する。
gp はテイラー多項式法によって強化される。
実験は古典的SR、機械学習、物理の3種類のベンチマークで行われている。
実験の結果,TaylorGPは9つのベースライン法よりも精度が高いだけでなく,安定な結果の発見も高速であることがわかった。
関連論文リスト
- TMPNN: High-Order Polynomial Regression Based on Taylor Map
Factorization [0.0]
本稿では,テイラー写像の分解に基づく高次回帰を構築する手法を提案する。
UCIオープンアクセスデータセットのベンチマークにより,提案手法が最先端の回帰手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-07-30T01:52:00Z) - Deep Generative Symbolic Regression with Monte-Carlo-Tree-Search [29.392036559507755]
記号回帰は数値データから記号表現を学習する問題である。
手続き的に生成した合成データセットに基づいてトレーニングされたディープニューラルモデルは、競合性能を示した。
そこで本研究では,モンテカルロ木探索手法に基づいて,両世界の長所を提供する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T09:10:20Z) - Local Optimization Often is Ill-conditioned in Genetic Programming for
Symbolic Regression [0.0]
NLSヤコビ行列の特異値分解を用いて、数値階数と条件数を決定する。
以上の結果から,ランク不足および不条件ヤコビ行列は全データセットに対して頻繁に発生することが明らかとなった。
論文 参考訳(メタデータ) (2022-09-02T10:39:26Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Using Traceless Genetic Programming for Solving Multiobjective
Optimization Problems [1.9493449206135294]
トレーレス・ジェネティック・プログラミング(Traceless Genetic Programming、TGP)は、プログラム自体よりもプログラムの出力に焦点をあてる場合に使われる遺伝的プログラミング(GP)の変種である。
TGPと組み合わせて2つの遺伝子操作子(クロスオーバーと挿入)が使用される。
数値実験により、TGPは非常に高速かつ十分に検討されたテスト問題を解くことができることが示された。
論文 参考訳(メタデータ) (2021-10-07T05:55:55Z) - TaylorGAN: Neighbor-Augmented Policy Update for Sample-Efficient Natural
Language Generation [79.4205462326301]
TaylorGANは関数ベースの自然言語生成のための新しいアプローチである。
オフポリシー更新による勾配推定と1階のTaylor拡張が強化される。
これにより、より小さなバッチサイズで、スクラッチからNLGモデルをトレーニングすることができます。
論文 参考訳(メタデータ) (2020-11-27T02:26:15Z) - Robust Gaussian Process Regression Based on Iterative Trimming [6.912744078749024]
本稿では、最も極端なデータポイントを反復的にトリムする、新しい頑健なGP回帰アルゴリズムを提案する。
極端または豊富な外れ値が存在する場合でも、汚染されたデータのモデル精度を大幅に向上させることができる。
天体物理学的な研究の実践例として、星団の色-マグニチュード図の主系列尾根線を正確に決定できることが示されている。
論文 参考訳(メタデータ) (2020-11-22T16:43:35Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。