論文の概要: Deep Symbolic Regression for Recurrent Sequences
- arxiv url: http://arxiv.org/abs/2201.04600v1
- Date: Wed, 12 Jan 2022 17:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 14:51:18.864020
- Title: Deep Symbolic Regression for Recurrent Sequences
- Title(参考訳): 繰り返しシーケンスに対するDeep Symbolic Regression
- Authors: St\'ephane d'Ascoli, Pierre-Alexandre Kamienny, Guillaume Lample,
Fran\c{c}ois Charton
- Abstract要約: 我々はTransformerをトレーニングし、整数やMathematicaの浮動小数点列の関数や繰り返し関係を推測する。
我々は,OEIS配列のサブセット上で整数モデルを評価し,再帰予測のための組込み関数よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 20.172752966322214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic regression, i.e. predicting a function from the observation of its
values, is well-known to be a challenging task. In this paper, we train
Transformers to infer the function or recurrence relation underlying sequences
of integers or floats, a typical task in human IQ tests which has hardly been
tackled in the machine learning literature. We evaluate our integer model on a
subset of OEIS sequences, and show that it outperforms built-in Mathematica
functions for recurrence prediction. We also demonstrate that our float model
is able to yield informative approximations of out-of-vocabulary functions and
constants, e.g. $\operatorname{bessel0}(x)\approx
\frac{\sin(x)+\cos(x)}{\sqrt{\pi x}}$ and $1.644934\approx \pi^2/6$. An
interactive demonstration of our models is provided at https://bit.ly/3niE5FS.
- Abstract(参考訳): シンボリック回帰、すなわちその値の観測から関数を予測することは、難しいタスクとしてよく知られている。
本稿では,機械学習の文献にはほとんど取り組まれていないヒトIQテストにおける典型的な課題である整数や浮動小数点数列の関数や再帰関係を推論するためにトランスフォーマーを訓練する。
我々は,OEIS配列のサブセット上で整数モデルを評価し,再帰予測のために組み込みのMathematica関数より優れていることを示す。
また、我々のフロートモデルは、例えば、$\operatorname{bessel0}(x)\approx \frac{\sin(x)+\cos(x)}{\sqrt{\pi x}}$ および $1.644934\approx \pi^2/6$ のようなボキャブラリ関数と定数の有益な近似を与えることができる。
私たちのモデルのインタラクティブなデモはhttps://bit.ly/3niE5FSで公開されています。
関連論文リスト
- Emergent inabilities? Inverse scaling over the course of pretraining [0.6091702876917281]
本研究は,訓練期間を通じて,一般的な性能を維持しながら,特定のタスクにおける言語モデルの性能が低下するか否かを考察する。
逆スケーリングチャレンジの2つのタスク – 引用-繰り返しと再定義-マス – に対して,これは事実です。
これは、たとえ全体的なパフォーマンスが改善したとしても、追加データでトレーニングされるたびに、すべての関連するベンチマークでモデルパフォーマンスをテストすることの重要性を強調します。
論文 参考訳(メタデータ) (2023-05-24T03:42:43Z) - End-to-end symbolic regression with transformers [20.172752966322214]
シンボリック・マグニチュード・レグレッションは、通常、2段階の手順を高速に予測する難しいタスクである。
本稿では,本モデルが情報変換器としてニューラル・ザ・定数にアプローチしていることを示す。
論文 参考訳(メタデータ) (2022-04-22T06:55:43Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Max-Linear Regression by Convex Programming [5.366354612549172]
我々は、最大線形回帰問題の推定器として、アンカーレグレッション(AR)によって与えられるスケーラブルな凸プログラムを定式化し、解析する。
以上の結果から, 対数係数まで, 正確な回復スケールについて, 十分な数のノイズのない観測結果が得られた。
論文 参考訳(メタデータ) (2021-03-12T00:55:54Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Interpolating Log-Determinant and Trace of the Powers of Matrix
$\mathbf{A} + t \mathbf{B}$ [1.5002438468152661]
関数 $t mapto log det left( mathbfA + t mathbfB right)$ and $t mapto nametraceleft (mathbfA + t mathbfB)p right)$ ここで行列 $mathbfA$ と $mathbfB$ はエルミート的で正(半)で、$p$ と $t$ は実変数である。
論文 参考訳(メタデータ) (2020-09-15T23:11:17Z) - On the Theory of Transfer Learning: The Importance of Task Diversity [114.656572506859]
一般的な関数クラス$mathcalF circ MathcalH$において、$f_j circ h$という形の関数によってパラメータ化される$t+1$タスクを考える。
多様なトレーニングタスクに対して、最初の$t$のトレーニングタスク間で共有表現を学ぶのに必要なサンプルの複雑さが、$C(mathcalH) + t C(mathcalF)$であることを示す。
論文 参考訳(メタデータ) (2020-06-20T20:33:59Z) - $O(n)$ Connections are Expressive Enough: Universal Approximability of
Sparse Transformers [71.31712741938837]
注意層ごとに$O(n)$接続しか持たないスパース変換器は、$n2$接続を持つ高密度モデルと同じ関数クラスを近似できることを示す。
また、標準NLPタスクにおいて、異なるパターン・レベルの違いを比較検討する。
論文 参考訳(メタデータ) (2020-06-08T18:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。