論文の概要: ParFam -- Symbolic Regression Based on Continuous Global Optimization
- arxiv url: http://arxiv.org/abs/2310.05537v1
- Date: Tue, 10 Oct 2023 11:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:39:20.590225
- Title: ParFam -- Symbolic Regression Based on Continuous Global Optimization
- Title(参考訳): parfam --連続的グローバル最適化に基づく記号回帰
- Authors: Philipp Scholl, Katharina Bieker, Hillary Hauger, Gitta Kutyniok
- Abstract要約: 本稿では,離散的記号回帰問題を連続的な問題に変換するためにParFamを提案する。
強力なグローバルアプローチと組み合わせることで、この手法はシンボリック回帰の問題に取り組む効果的な方法である。
SRベンチマークのSRBenchに基づく数値実験によりParFamの性能を実証する。
- 参考スコア(独自算出の注目度): 15.454555090287922
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The problem of symbolic regression (SR) arises in many different
applications, such as identifying physical laws or deriving mathematical
equations describing the behavior of financial markets from given data. Various
methods exist to address the problem of SR, often based on genetic programming.
However, these methods are usually quite complicated and require a lot of
hyperparameter tuning and computational resources. In this paper, we present
our new method ParFam that utilizes parametric families of suitable symbolic
functions to translate the discrete symbolic regression problem into a
continuous one, resulting in a more straightforward setup compared to current
state-of-the-art methods. In combination with a powerful global optimizer, this
approach results in an effective method to tackle the problem of SR.
Furthermore, it can be easily extended to more advanced algorithms, e.g., by
adding a deep neural network to find good-fitting parametric families. We prove
the performance of ParFam with extensive numerical experiments based on the
common SR benchmark suit SRBench, showing that we achieve state-of-the-art
results. Our code and results can be found at
https://github.com/Philipp238/parfam .
- Abstract(参考訳): 記号回帰(SR)の問題は、物理法則の特定や、与えられたデータから金融市場の振舞いを記述する数学的方程式の導出など、多くの異なる応用で生じる。
SRの問題に対処する様々な方法があり、しばしば遺伝的プログラミングに基づいている。
しかし、これらの手法は通常非常に複雑であり、多くのハイパーパラメータチューニングと計算資源を必要とする。
本稿では, 離散的記号回帰問題を連続的に解くために, 適切な記号関数のパラメトリック族を利用する新しい手法parfamを提案する。
強力なグローバルオプティマイザと組み合わせることで、このアプローチはsrの問題に取り組む効果的な方法をもたらす。
さらに、例えば、優れたパラメトリックファミリーを見つけるためにディープニューラルネットワークを追加することで、より高度なアルゴリズムに容易に拡張できる。
本稿では,SRベンチマークのSRBenchに基づく広範な数値実験によりParFamの性能を実証し,その結果を得た。
私たちのコードと結果はhttps://github.com/Philipp238/parfam で確認できます。
関連論文リスト
- Ab initio nonparametric variable selection for scalable Symbolic Regression with large $p$ [2.222138965069487]
シンボリック回帰(SR)は、データの非線形関係を特徴付けるシンボリック表現を発見するための強力な手法である。
既存のSR法は、多くの入力変数を持つデータセットにスケールしないが、これは現代の科学的応用で一般的である。
本稿では,Ab初期非パラメトリック変数選択とSRを組み合わせたPAN+SRを提案する。
論文 参考訳(メタデータ) (2024-10-17T15:41:06Z) - A Functional Analysis Approach to Symbolic Regression [0.990319860068191]
記号回帰(SR)はランダム化探索において重要な課題である。
伝統的な遺伝的プログラミング(GP)アルゴリズムは、SRに木に基づく表現を用いる場合、限られた性能を示す。
機能解析から洞察を引き出す新しいSR手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T10:24:47Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning [1.0356366043809717]
モデル重み,入力特徴,数学的演算子を1つのトレーニングプロセスで動的に刈り取ることができる新しいフレームワークにおいて,記号回帰に対するニューラルネットワークアプローチを提案する。
提案手法は,計算資源制約の厳しい環境下での高次元データセットに対して,FPGA上でのナノ秒スケールレイテンシによる高速な推論を実現する。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Differentiable Genetic Programming for High-dimensional Symbolic
Regression [13.230237932229052]
シンボリック・レグレッション(SR)は、解釈可能な機械学習(ML)に到達するための効果的な方法と考えられている
遺伝的プログラミング(GP)は、SR問題の解決における支配者となっている。
GP木を高次元SRに向けて構築するための DGP という微分可能な手法を提案する。
論文 参考訳(メタデータ) (2023-04-18T11:39:45Z) - Relational Reasoning via Set Transformers: Provable Efficiency and
Applications to MARL [154.13105285663656]
置換不変エージェントフレームワークを用いたMARL(Multi-A gent R einforcement Learning)は,実世界のアプリケーションにおいて大きな実証的成功を収めた。
残念なことに、このMARL問題の理論的理解は、多くのエージェントの呪いと、既存の著作における関係推論の限定的な探索によって欠落している。
モデルフリーアルゴリズムとモデルベースアルゴリズムの最適度差は各エージェント数に独立して対数的であり、多くのエージェントの呪いを和らげる。
論文 参考訳(メタデータ) (2022-09-20T16:42:59Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - GSR: A Generalized Symbolic Regression Approach [13.606672419862047]
本論文では, 一般化記号回帰について述べる。
GSR法は、よく知られたシンボリック回帰ベンチマーク問題セットにおいて、最先端のいくつかの手法よりも優れていることを示す。
既存のベンチマークと比較して、より困難な新しいSRベンチマークセットであるSymSetを導入することで、GSRの強みを強調します。
論文 参考訳(メタデータ) (2022-05-31T07:20:17Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Convergence of Meta-Learning with Task-Specific Adaptation over Partial
Parameters [152.03852111442114]
モデルに依存しないメタラーニング(MAML)は非常に成功したアルゴリズムメタラーニングの実践であるが、高い計算複雑性を持つ。
本稿では,その複雑さがANILの全体的な収束性能に大きく影響することを示す。
論文 参考訳(メタデータ) (2020-06-16T19:57:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。