論文の概要: Neural Symbolic Regression that Scales
- arxiv url: http://arxiv.org/abs/2106.06427v1
- Date: Fri, 11 Jun 2021 14:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:08:58.085450
- Title: Neural Symbolic Regression that Scales
- Title(参考訳): スケールするニューラルシンボリック回帰
- Authors: Luca Biggio, Tommaso Bendinelli, Alexander Neitz, Aurelien Lucchi,
Giambattista Parascandolo
- Abstract要約: 本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
- 参考スコア(独自算出の注目度): 58.45115548924735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic equations are at the core of scientific discovery. The task of
discovering the underlying equation from a set of input-output pairs is called
symbolic regression. Traditionally, symbolic regression methods use
hand-designed strategies that do not improve with experience. In this paper, we
introduce the first symbolic regression method that leverages large scale
pre-training. We procedurally generate an unbounded set of equations, and
simultaneously pre-train a Transformer to predict the symbolic equation from a
corresponding set of input-output-pairs. At test time, we query the model on a
new set of points and use its output to guide the search for the equation. We
show empirically that this approach can re-discover a set of well-known
physical equations, and that it improves over time with more data and compute.
- Abstract(参考訳): 記号方程式は科学的発見の中核にある。
入力-出力ペアの集合から基底方程式を発見するタスクは記号回帰と呼ばれる。
伝統的に、シンボリック回帰法は経験によって改善されない手作りの戦略を用いる。
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
非有界な方程式集合を手続き的に生成し、同時にトランスフォーマーを事前学習し、対応する入力出力ペアから記号方程式を予測する。
テスト時に新しい点の集合についてモデルをクエリし、その出力を使って方程式の探索をガイドする。
このアプローチがよく知られた物理方程式の集合を再発見し、より多くのデータや計算によって時間とともに改善できることを実証的に示す。
関連論文リスト
- A Comparison of Recent Algorithms for Symbolic Regression to Genetic Programming [0.0]
シンボリック回帰は、科学者が理解できる方法でデータをモデル化し、マッピングすることを目的としている。
最近の進歩は、これらの2つの分野のギャップを埋めようと試みている。
論文 参考訳(メタデータ) (2024-06-05T19:01:43Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Predicting Ordinary Differential Equations with Transformers [65.07437364102931]
単一溶液軌道の不規則サンプリングおよび雑音観測から,スカラー常微分方程式(ODE)を記号形式で復元するトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを開発した。
提案手法は, 1回に一度, ODE の大規模な事前訓練を行った後, モデルのいくつかの前方通過において, 新たな観測解の法則を推測することができる。
論文 参考訳(メタデータ) (2023-07-24T08:46:12Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - Discovering ordinary differential equations that govern time-series [65.07437364102931]
本研究では, 1つの観測解の時系列データから, スカラー自律常微分方程式(ODE)を記号形式で復元するトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを提案する。
提案手法は, 1回に一度, ODE の大規模な事前訓練を行った後, モデルのいくつかの前方通過において, 新たに観測された解の法則を推測することができる。
論文 参考訳(メタデータ) (2022-11-05T07:07:58Z) - SymbolicGPT: A Generative Transformer Model for Symbolic Regression [3.685455441300801]
シンボル回帰のための新しいトランスフォーマーベース言語モデルであるSybolicGPTを提案する。
本モデルでは,精度,実行時間,データ効率に関して,競合モデルと比較して高い性能を示す。
論文 参考訳(メタデータ) (2021-06-27T03:26:35Z) - Shape-constrained Symbolic Regression -- Improving Extrapolation with
Prior Knowledge [0.0]
目的は、期待される振る舞いに適合し、能力を改善したモデルを見つけることである。
アルゴリズムは19の合成問題と4つの現実世界の回帰問題でテストされる。
形状制約レグレッションは、テストセットに最適な結果をもたらすが、さらに大きなモデルも生成する。
論文 参考訳(メタデータ) (2021-03-29T14:04:18Z) - AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph
modularity [8.594811303203581]
本稿では,Pareto-Optimal式にデータを適合させようとする記号回帰法の改良について述べる。
これは、通常、ノイズや悪いデータに対して、桁違いに堅牢であることによって、過去の最先端を改善する。
ニューラルネットワークの勾配特性から一般化対称性を発見する手法を開発した。
論文 参考訳(メタデータ) (2020-06-18T18:01:19Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。