論文の概要: A Functional Analysis Approach to Symbolic Regression
- arxiv url: http://arxiv.org/abs/2402.06299v1
- Date: Fri, 9 Feb 2024 10:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:15:53.113150
- Title: A Functional Analysis Approach to Symbolic Regression
- Title(参考訳): シンボリック回帰に対する機能解析的アプローチ
- Authors: Kirill Antonov, Roman Kalkreuth, Kaifeng Yang, Thomas B\"ack, Niki van
Stein, Anna V Kononova
- Abstract要約: 記号回帰(SR)はランダム化探索において重要な課題である。
伝統的な遺伝的プログラミング(GP)アルゴリズムは、SRに木に基づく表現を用いる場合、限られた性能を示す。
機能解析から洞察を引き出す新しいSR手法を提案する。
- 参考スコア(独自算出の注目度): 0.990319860068191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic regression (SR) poses a significant challenge for randomized search
heuristics due to its reliance on the synthesis of expressions for input-output
mappings. Although traditional genetic programming (GP) algorithms have
achieved success in various domains, they exhibit limited performance when
tree-based representations are used for SR. To address these limitations, we
introduce a novel SR approach called Fourier Tree Growing (FTG) that draws
insights from functional analysis. This new perspective enables us to perform
optimization directly in a different space, thus avoiding intricate symbolic
expressions. Our proposed algorithm exhibits significant performance
improvements over traditional GP methods on a range of classical
one-dimensional benchmarking problems. To identify and explain limiting factors
of GP and FTG, we perform experiments on a large-scale polynomials benchmark
with high-order polynomials up to degree 100. To the best of the authors'
knowledge, this work represents the pioneering application of functional
analysis in addressing SR problems. The superior performance of the proposed
algorithm and insights into the limitations of GP open the way for further
advancing GP for SR and related areas of explainable machine learning.
- Abstract(参考訳): 記号回帰 (sr) は、入力出力マッピングのための表現の合成に依存するため、ランダム化探索ヒューリスティックスにとって大きな課題となる。
従来の遺伝的プログラミング(GP)アルゴリズムは様々な領域で成功しているが、SRに木に基づく表現を用いると、限られた性能を示す。
これらの制限に対処するために,関数解析から洞察を引き出すフーリエツリー成長(ftg)と呼ばれる新しいsrアプローチを導入する。
この新しい視点により、異なる空間で直接最適化を行うことができ、複雑な記号表現を避けることができる。
提案アルゴリズムは,古典的な1次元ベンチマーク問題に対して,従来のGP法よりも優れた性能を示す。
GP と FTG の制限因子を同定し,説明するために,高次多項式を持つ大規模多項式ベンチマークの実験を行った。
著者の知識を最大限に活用するために、この研究はSR問題に対処する機能解析の先駆的な応用である。
提案されたアルゴリズムの優れた性能とgpの限界に対する洞察は、srと関連する機械学習分野のgpをさらに前進させる道を開く。
関連論文リスト
- SF-DQN: Provable Knowledge Transfer using Successor Feature for Deep Reinforcement Learning [89.04776523010409]
本稿では、複数のRL問題が異なる報酬関数を持つが、基礎となる遷移力学を共有する転写強化学習(RL)問題を考察する。
この設定では、各RL問題(タスク)のQ-関数を後継特徴(SF)と報酬マッピングに分解することができる。
GPIを用いたSF-DQNの証明可能な一般化保証を用いた最初の収束解析を確立する。
論文 参考訳(メタデータ) (2024-05-24T20:30:14Z) - GFN-SR: Symbolic Regression with Generative Flow Networks [0.9208007322096533]
近年,DSR(Deep symbolic regression)がこの分野の一般的な手法として登場している。
ディープラーニングを用いてSRにアプローチするための代替フレームワーク(GFN-SR)を提案する。
GFN-SRは多種多様な最適表現を生成することができる。
論文 参考訳(メタデータ) (2023-12-01T07:38:05Z) - ParFam -- (Neural Guided) Symbolic Regression Based on Continuous Global Optimization [14.146976111782466]
我々は、離散的記号回帰問題を連続的な問題に変換するために、新しいアプローチであるParFamを提案する。
グローバルな手法と組み合わせることで、SRの問題に対処する非常に効果的な手法がもたらされる。
また、ParFamをガイドするために、事前訓練されたトランスフォーマーネットワークDL-ParFamを組み込んだ拡張も提案する。
論文 参考訳(メタデータ) (2023-10-09T09:01:25Z) - Differentiable Genetic Programming for High-dimensional Symbolic
Regression [13.230237932229052]
シンボリック・レグレッション(SR)は、解釈可能な機械学習(ML)に到達するための効果的な方法と考えられている
遺伝的プログラミング(GP)は、SR問題の解決における支配者となっている。
GP木を高次元SRに向けて構築するための DGP という微分可能な手法を提案する。
論文 参考訳(メタデータ) (2023-04-18T11:39:45Z) - Hierarchical shrinkage Gaussian processes: applications to computer code
emulation and dynamical system recovery [5.694170341269015]
GPフレームワーク内に累積収縮前処理を組み込んだ新しい階層縮小GP(HierGP)を提案する。
実験解析において,HierGPはエフェクト・スパシティ,遺伝性,階層性といったよく知られた原理を暗黙的に組み込んでいることを示す。
モデルトレーニングと予測のための効率的な後方サンプリングアルゴリズムを提案し、HierGPの望ましい整合性を証明した。
論文 参考訳(メタデータ) (2023-02-01T21:00:45Z) - GSR: A Generalized Symbolic Regression Approach [13.606672419862047]
本論文では, 一般化記号回帰について述べる。
GSR法は、よく知られたシンボリック回帰ベンチマーク問題セットにおいて、最先端のいくつかの手法よりも優れていることを示す。
既存のベンチマークと比較して、より困難な新しいSRベンチマークセットであるSymSetを導入することで、GSRの強みを強調します。
論文 参考訳(メタデータ) (2022-05-31T07:20:17Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。