論文の概要: Exhaustive Symbolic Regression
- arxiv url: http://arxiv.org/abs/2211.11461v2
- Date: Mon, 29 May 2023 09:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:54:04.118272
- Title: Exhaustive Symbolic Regression
- Title(参考訳): Exhaustive Symbolic Regression
- Authors: Deaglan J. Bartlett, Harry Desmond and Pedro G. Ferreira
- Abstract要約: Exhaustive Symbolic Regression (ESR) は、好みを一つの目的に組み合わせるための厳密な方法である。
宇宙のクロノメーターのカタログと、超新星のパンテオン+サンプルに応用して、ハッブル速度を学習する。
コードと完全な方程式セットを公開しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic Regression (SR) algorithms attempt to learn analytic expressions
which fit data accurately and in a highly interpretable manner. Conventional SR
suffers from two fundamental issues which we address here. First, these methods
search the space stochastically (typically using genetic programming) and hence
do not necessarily find the best function. Second, the criteria used to select
the equation optimally balancing accuracy with simplicity have been variable
and subjective. To address these issues we introduce Exhaustive Symbolic
Regression (ESR), which systematically and efficiently considers all possible
equations -- made with a given basis set of operators and up to a specified
maximum complexity -- and is therefore guaranteed to find the true optimum (if
parameters are perfectly optimised) and a complete function ranking subject to
these constraints. We implement the minimum description length principle as a
rigorous method for combining these preferences into a single objective. To
illustrate the power of ESR we apply it to a catalogue of cosmic chronometers
and the Pantheon+ sample of supernovae to learn the Hubble rate as a function
of redshift, finding $\sim$40 functions (out of 5.2 million trial functions)
that fit the data more economically than the Friedmann equation. These
low-redshift data therefore do not uniquely prefer the expansion history of the
standard model of cosmology. We make our code and full equation sets publicly
available.
- Abstract(参考訳): シンボリック回帰(sr)アルゴリズムは、データを正確かつ高度に解釈可能な方法で適合する解析式を学習しようとする。
従来のSRは2つの根本的な問題に悩まされている。
第一に、これらの手法は空間を確率的に(典型的には遺伝的プログラミングを用いて)探索するので、必ずしも最良の関数は見つからない。
第二に、正確さと単純さを最適にバランスさせる方程式を選択するための基準は可変であり主観的である。
これらの問題に対処するために、我々はExphaustive Symbolic Regression (ESR)を導入し、これは、与えられた演算子の基底セットと指定された最大複雑性を持つ全ての可能な方程式を体系的かつ効率的に検討し、従って真の最適値(パラメータが完全に最適化された場合)とこれらの制約に従属する完全関数ランキングを見つけることが保証される。
これらの選好を一つの目的に組み合わせるための厳密な方法として、最小記述長原理を実装した。
esrのパワーを説明するために、これを宇宙クロノメーターのカタログと超新星のパンテオン+サンプルに適用し、ハッブル速度を赤方偏移の関数として学習し、フリードマン方程式よりも経済的に適合する40ドルの関数(5.2百万トライアル関数のうち)を見つける。
したがって、これらの低赤方偏移データは、宇宙論の標準模型の拡張履歴を一意に好まない。
コードと完全な方程式セットを一般公開します。
関連論文リスト
- Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Priors for symbolic regression [0.0]
我々は,関数とそのパラメータの詳細な事前情報をシンボル回帰に組み込む手法を開発した。
関数の構造については、$n$-gram言語モデルに基づいています。
また,数値パラメータ事前処理のためのフラクショナルベイズ係数に基づく定式化も行う。
論文 参考訳(メタデータ) (2023-04-13T08:29:16Z) - Dual-sPLS: a family of Dual Sparse Partial Least Squares regressions for
feature selection and prediction with tunable sparsity; evaluation on
simulated and near-infrared (NIR) data [1.6099403809839032]
この論文で示された変種であるDual-sPLSは、古典的なPLS1アルゴリズムを一般化する。
正確な予測と効率的な解釈のバランスを提供する。
コードはRでオープンソースパッケージとして提供される。
論文 参考訳(メタデータ) (2023-01-17T21:50:35Z) - On the functional form of the radial acceleration relation [0.0]
我々は、後期型の銀河力学にExhaustive Symbolic Regressionを適用した。
最高の関数は通常$g_textobspropto g_textbar$ at high $g_textbar$を満たす。
論文 参考訳(メタデータ) (2023-01-11T09:26:16Z) - Sharper Rates and Flexible Framework for Nonconvex SGD with Client and
Data Sampling [64.31011847952006]
我々は、平均$n$スムーズでおそらくは非カラー関数のほぼ定常点を求める問題を再考する。
我々は$smallsfcolorgreen$を一般化し、事実上あらゆるサンプリングメカニズムで確実に動作するようにします。
我々は、スムーズな非カラー状態における最適境界の最も一般的な、最も正確な解析を提供する。
論文 参考訳(メタデータ) (2022-06-05T21:32:33Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - On the minmax regret for statistical manifolds: the role of curvature [68.8204255655161]
2つの部分のコードと最小記述長は、最高のモデルを選別するための手順を提供するのに成功している。
我々は、フィッシャー情報計量のスカラー曲率が支配的な役割を果たす複雑さによって与えられる標準表現よりも、よりシャープな表現を導出する。
論文 参考訳(メタデータ) (2020-07-06T17:28:19Z) - Learning Inconsistent Preferences with Gaussian Processes [14.64963271587818]
我々は,Chuらによる優先的なガウス過程を再考し,潜在ユーティリティ関数の値を通じてデータ項目のランク付けを強制するモデル化の仮定に挑戦する。
本稿では、より表現力のある遅延優先構造をデータ中に捉えることのできるpgpの一般化を提案する。
実験結果から, ランキングビリティの侵害は, 現実の優先データにおいてユビキタスである可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-06T11:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。