論文の概要: AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph
modularity
- arxiv url: http://arxiv.org/abs/2006.10782v2
- Date: Wed, 16 Dec 2020 17:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 09:59:34.431576
- Title: AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph
modularity
- Title(参考訳): AI Feynman 2.0: グラフモジュラリティを利用したパレート最適シンボル回帰
- Authors: Silviu-Marian Udrescu, Andrew Tan, Jiahai Feng, Orisvaldo Neto, Tailin
Wu, Max Tegmark
- Abstract要約: 本稿では,Pareto-Optimal式にデータを適合させようとする記号回帰法の改良について述べる。
これは、通常、ノイズや悪いデータに対して、桁違いに堅牢であることによって、過去の最先端を改善する。
ニューラルネットワークの勾配特性から一般化対称性を発見する手法を開発した。
- 参考スコア(独自算出の注目度): 8.594811303203581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an improved method for symbolic regression that seeks to fit data
to formulas that are Pareto-optimal, in the sense of having the best accuracy
for a given complexity. It improves on the previous state-of-the-art by
typically being orders of magnitude more robust toward noise and bad data, and
also by discovering many formulas that stumped previous methods. We develop a
method for discovering generalized symmetries (arbitrary modularity in the
computational graph of a formula) from gradient properties of a neural network
fit. We use normalizing flows to generalize our symbolic regression method to
probability distributions from which we only have samples, and employ
statistical hypothesis testing to accelerate robust brute-force search.
- Abstract(参考訳): 本稿では,与えられた複雑性に対して最適な精度を持つという観点から,パレート最適の式にデータを適合させようとする,記号回帰法の改良について述べる。
ノイズや悪いデータに対して桁違いに頑丈であると同時に、従来の方法を打ち破る多くの公式を発見することで、従来の最先端技術を改善している。
ニューラルネットワークの勾配特性から一般化対称性(公式の計算グラフにおけるarbitrary modular)を発見する手法を開発した。
我々は正規化フローを用いて、サンプルしか持たない確率分布にシンボリック回帰法を一般化し、統計的仮説テストを用いてロバストブルート力探索を高速化する。
関連論文リスト
- Meta-Learning with Generalized Ridge Regression: High-dimensional Asymptotics, Optimality and Hyper-covariance Estimation [14.194212772887699]
本研究では,高次元ランダム効果線形モデルの枠組みにおけるメタラーニングについて考察する。
本研究では,データ次元がタスク毎のサンプル数に比例して大きくなる場合に,新しいテストタスクに対する予測リスクの正確な振る舞いを示す。
トレーニングタスクのデータに基づいて,逆回帰係数を推定する手法を提案し,解析する。
論文 参考訳(メタデータ) (2024-03-27T21:18:43Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - Rigorous dynamical mean field theory for stochastic gradient descent
methods [17.90683687731009]
一階勾配法の一家系の正確な高次元に対する閉形式方程式を証明した。
これには勾配降下(SGD)やネステロフ加速度などの広く使われているアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-10-12T21:10:55Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Random Machines Regression Approach: an ensemble support vector
regression model with free kernel choice [0.0]
本稿では,重み付きサポートベクターモデルを用いて回帰問題を解く手法を提案する。
その結果、チューニングプロセス中に最適なカーネル関数を選択することなく、より低い一般化誤差により回帰ランダムマシンの性能が向上した。
論文 参考訳(メタデータ) (2020-03-27T21:30:59Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。