論文の概要: Exhaustive Symbolic Regression
- arxiv url: http://arxiv.org/abs/2211.11461v1
- Date: Mon, 21 Nov 2022 13:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:39:45.266318
- Title: Exhaustive Symbolic Regression
- Title(参考訳): Exhaustive Symbolic Regression
- Authors: Deaglan J. Bartlett, Harry Desmond and Pedro G. Ferreira
- Abstract要約: シンボリックESRアルゴリズムは、データに正確に適合する解析式を学習する。
本稿では,すべての可能な方程式を体系的かつ効率的に検討するSR-Exhaustive Regression (ESR) の新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic Regression (SR) algorithms learn analytic expressions which both
accurately fit data and, unlike traditional machine-learning approaches, are
highly interpretable. Conventional SR suffers from two fundamental issues which
we address in this work. First, since the number of possible equations grows
exponentially with complexity, typical SR methods search the space
stochastically and hence do not necessarily find the best function. In many
cases, the target problems of SR are sufficiently simple that a brute-force
approach is not only feasible, but desirable. Second, the criteria used to
select the equation which optimally balances accuracy with simplicity have been
variable and poorly motivated. To address these issues we introduce a new
method for SR -- Exhaustive Symbolic Regression (ESR) -- which systematically
and efficiently considers all possible equations and is therefore guaranteed to
find not only the true optimum but also a complete function ranking. Utilising
the minimum description length principle, we introduce a principled method for
combining these preferences into a single objective statistic. To illustrate
the power of ESR we apply it to a catalogue of cosmic chronometers and the
Pantheon+ sample of supernovae to learn the Hubble rate as a function of
redshift, finding $\sim$40 functions (out of 5.2 million considered) that fit
the data more economically than the Friedmann equation. These low-redshift data
therefore do not necessarily prefer a $\Lambda$CDM expansion history, and
traditional SR algorithms that return only the Pareto-front, even if they found
this successfully, would not locate $\Lambda$CDM. We make our code and full
equation sets publicly available.
- Abstract(参考訳): シンボリック回帰(SR)アルゴリズムは、データに正確に適合する解析式を学習し、従来の機械学習手法とは異なり、高度に解釈可能である。
従来のSRは2つの根本的な問題に悩まされている。
第一に、可能な方程式の数は複雑さとともに指数関数的に増加するので、典型的なSR法は空間を確率的に探索するので、必ずしも最高の関数を見つけるとは限らない。
多くの場合、SRのターゲット問題は十分に単純であり、ブルートフォースアプローチは実現可能であるだけでなく望ましい。
第二に、正確さと単純さを最適にバランスさせる方程式を選択するための基準は可変であり、モチベーションが低かった。
これらの問題に対処するために、我々は、sr -- exhaustive symbolic regression (esr) -- の新たな方法を紹介します。
最小記述長原理を用いて,これらの選好を一つの目的統計に結合する原理的手法を提案する。
esrのパワーを説明するために、これを宇宙クロノメーターのカタログと超新星のパンテオン+サンプルに適用し、ハッブル速度を赤方偏移の関数として学習し、フリードマン方程式よりも経済的に適合する40ドルの関数(5.2百万ドルのうち)を見つける。
したがって、これらの低赤方偏移データは、必ずしも$\Lambda$CDMの展開履歴を好まず、もしそれが成功したとしても、Pareto-frontのみを返す従来のSRアルゴリズムは$\Lambda$CDMを見つけることができない。
コードと完全な方程式セットを一般公開します。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Scalable Sparse Regression for Model Discovery: The Fast Lane to Insight [0.0]
シンボリックライブラリに適用されたスパース回帰は、データから直接方程式を学習する強力なツールとして急速に現れてきた。
最近提案された網羅的探索を拡張した汎用モデルスパース回帰アルゴリズムを提案する。
これは、小さな係数に対する非依存的な感度を維持することを目的としており、大きなシンボルライブラリーにとって妥当な計算コストである。
論文 参考訳(メタデータ) (2024-05-14T18:09:43Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Priors for symbolic regression [0.0]
我々は,関数とそのパラメータの詳細な事前情報をシンボル回帰に組み込む手法を開発した。
関数の構造については、$n$-gram言語モデルに基づいています。
また,数値パラメータ事前処理のためのフラクショナルベイズ係数に基づく定式化も行う。
論文 参考訳(メタデータ) (2023-04-13T08:29:16Z) - Dual-sPLS: a family of Dual Sparse Partial Least Squares regressions for
feature selection and prediction with tunable sparsity; evaluation on
simulated and near-infrared (NIR) data [1.6099403809839032]
この論文で示された変種であるDual-sPLSは、古典的なPLS1アルゴリズムを一般化する。
正確な予測と効率的な解釈のバランスを提供する。
コードはRでオープンソースパッケージとして提供される。
論文 参考訳(メタデータ) (2023-01-17T21:50:35Z) - Sharper Rates and Flexible Framework for Nonconvex SGD with Client and
Data Sampling [64.31011847952006]
我々は、平均$n$スムーズでおそらくは非カラー関数のほぼ定常点を求める問題を再考する。
我々は$smallsfcolorgreen$を一般化し、事実上あらゆるサンプリングメカニズムで確実に動作するようにします。
我々は、スムーズな非カラー状態における最適境界の最も一般的な、最も正確な解析を提供する。
論文 参考訳(メタデータ) (2022-06-05T21:32:33Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Minimum discrepancy principle strategy for choosing $k$ in $k$-NN regression [2.0411082897313984]
保持データを用いずに、$k$-NN回帰推定器でハイパーパラメータ$k$を選択するための新しいデータ駆動戦略を提案する。
本稿では,早期停止と最小一致原理に基づく実践的戦略を実践的に容易に導入することを提案する。
論文 参考訳(メタデータ) (2020-08-20T00:13:19Z) - On the minmax regret for statistical manifolds: the role of curvature [68.8204255655161]
2つの部分のコードと最小記述長は、最高のモデルを選別するための手順を提供するのに成功している。
我々は、フィッシャー情報計量のスカラー曲率が支配的な役割を果たす複雑さによって与えられる標準表現よりも、よりシャープな表現を導出する。
論文 参考訳(メタデータ) (2020-07-06T17:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。