論文の概要: Exhaustive Symbolic Regression
- arxiv url: http://arxiv.org/abs/2211.11461v2
- Date: Mon, 29 May 2023 09:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:54:04.118272
- Title: Exhaustive Symbolic Regression
- Title(参考訳): Exhaustive Symbolic Regression
- Authors: Deaglan J. Bartlett, Harry Desmond and Pedro G. Ferreira
- Abstract要約: Exhaustive Symbolic Regression (ESR) は、好みを一つの目的に組み合わせるための厳密な方法である。
宇宙のクロノメーターのカタログと、超新星のパンテオン+サンプルに応用して、ハッブル速度を学習する。
コードと完全な方程式セットを公開しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic Regression (SR) algorithms attempt to learn analytic expressions
which fit data accurately and in a highly interpretable manner. Conventional SR
suffers from two fundamental issues which we address here. First, these methods
search the space stochastically (typically using genetic programming) and hence
do not necessarily find the best function. Second, the criteria used to select
the equation optimally balancing accuracy with simplicity have been variable
and subjective. To address these issues we introduce Exhaustive Symbolic
Regression (ESR), which systematically and efficiently considers all possible
equations -- made with a given basis set of operators and up to a specified
maximum complexity -- and is therefore guaranteed to find the true optimum (if
parameters are perfectly optimised) and a complete function ranking subject to
these constraints. We implement the minimum description length principle as a
rigorous method for combining these preferences into a single objective. To
illustrate the power of ESR we apply it to a catalogue of cosmic chronometers
and the Pantheon+ sample of supernovae to learn the Hubble rate as a function
of redshift, finding $\sim$40 functions (out of 5.2 million trial functions)
that fit the data more economically than the Friedmann equation. These
low-redshift data therefore do not uniquely prefer the expansion history of the
standard model of cosmology. We make our code and full equation sets publicly
available.
- Abstract(参考訳): シンボリック回帰(sr)アルゴリズムは、データを正確かつ高度に解釈可能な方法で適合する解析式を学習しようとする。
従来のSRは2つの根本的な問題に悩まされている。
第一に、これらの手法は空間を確率的に(典型的には遺伝的プログラミングを用いて)探索するので、必ずしも最良の関数は見つからない。
第二に、正確さと単純さを最適にバランスさせる方程式を選択するための基準は可変であり主観的である。
これらの問題に対処するために、我々はExphaustive Symbolic Regression (ESR)を導入し、これは、与えられた演算子の基底セットと指定された最大複雑性を持つ全ての可能な方程式を体系的かつ効率的に検討し、従って真の最適値(パラメータが完全に最適化された場合)とこれらの制約に従属する完全関数ランキングを見つけることが保証される。
これらの選好を一つの目的に組み合わせるための厳密な方法として、最小記述長原理を実装した。
esrのパワーを説明するために、これを宇宙クロノメーターのカタログと超新星のパンテオン+サンプルに適用し、ハッブル速度を赤方偏移の関数として学習し、フリードマン方程式よりも経済的に適合する40ドルの関数(5.2百万トライアル関数のうち)を見つける。
したがって、これらの低赤方偏移データは、宇宙論の標準模型の拡張履歴を一意に好まない。
コードと完全な方程式セットを一般公開します。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Scalable Sparse Regression for Model Discovery: The Fast Lane to Insight [0.0]
シンボリックライブラリに適用されたスパース回帰は、データから直接方程式を学習する強力なツールとして急速に現れてきた。
最近提案された網羅的探索を拡張した汎用モデルスパース回帰アルゴリズムを提案する。
これは、小さな係数に対する非依存的な感度を維持することを目的としており、大きなシンボルライブラリーにとって妥当な計算コストである。
論文 参考訳(メタデータ) (2024-05-14T18:09:43Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Priors for symbolic regression [0.0]
我々は,関数とそのパラメータの詳細な事前情報をシンボル回帰に組み込む手法を開発した。
関数の構造については、$n$-gram言語モデルに基づいています。
また,数値パラメータ事前処理のためのフラクショナルベイズ係数に基づく定式化も行う。
論文 参考訳(メタデータ) (2023-04-13T08:29:16Z) - Dual-sPLS: a family of Dual Sparse Partial Least Squares regressions for
feature selection and prediction with tunable sparsity; evaluation on
simulated and near-infrared (NIR) data [1.6099403809839032]
この論文で示された変種であるDual-sPLSは、古典的なPLS1アルゴリズムを一般化する。
正確な予測と効率的な解釈のバランスを提供する。
コードはRでオープンソースパッケージとして提供される。
論文 参考訳(メタデータ) (2023-01-17T21:50:35Z) - Sharper Rates and Flexible Framework for Nonconvex SGD with Client and
Data Sampling [64.31011847952006]
我々は、平均$n$スムーズでおそらくは非カラー関数のほぼ定常点を求める問題を再考する。
我々は$smallsfcolorgreen$を一般化し、事実上あらゆるサンプリングメカニズムで確実に動作するようにします。
我々は、スムーズな非カラー状態における最適境界の最も一般的な、最も正確な解析を提供する。
論文 参考訳(メタデータ) (2022-06-05T21:32:33Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Minimum discrepancy principle strategy for choosing $k$ in $k$-NN regression [2.0411082897313984]
保持データを用いずに、$k$-NN回帰推定器でハイパーパラメータ$k$を選択するための新しいデータ駆動戦略を提案する。
本稿では,早期停止と最小一致原理に基づく実践的戦略を実践的に容易に導入することを提案する。
論文 参考訳(メタデータ) (2020-08-20T00:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。