論文の概要: Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials
- arxiv url: http://arxiv.org/abs/2012.03774v2
- Date: Mon, 8 Nov 2021 03:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:20:49.067122
- Title: Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials
- Title(参考訳): 連続分率による外挿の学習:超伝導材料の臨界温度予測
- Authors: Pablo Moscato, Mohammad Nazmul Haque, Kevin Huang, Julia Sloan, Jon C.
de Oliveira
- Abstract要約: 人工知能では、多くの変数の未知のターゲット関数を$y=f(mathbfx)$で識別することが多い。
トレーニングセットとして$S$を参照し、最後のクエストは、新しい$mathbfx$に対してこのターゲット関数を近似するモデルを特定することである。
- 参考スコア(独自算出の注目度): 5.905364646955811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Artificial Intelligence we often seek to identify an unknown target
function of many variables $y=f(\mathbf{x})$ giving a limited set of instances
$S=\{(\mathbf{x^{(i)}},y^{(i)})\}$ with $\mathbf{x^{(i)}} \in D$ where $D$ is a
domain of interest. We refer to $S$ as the training set and the final quest is
to identify the mathematical model that approximates this target function for
new $\mathbf{x}$; with the set $T=\{ \mathbf{x^{(j)}} \} \subset D$ with $T
\neq S$ (i.e. thus testing the model generalisation). However, for some
applications, the main interest is approximating well the unknown function on a
larger domain $D'$ that contains $D$. In cases involving the design of new
structures, for instance, we may be interested in maximizing $f$; thus, the
model derived from $S$ alone should also generalize well in $D'$ for samples
with values of $y$ larger than the largest observed in $S$. In that sense, the
AI system would provide important information that could guide the design
process, e.g., using the learned model as a surrogate function to design new
lab experiments.
We introduce a method for multivariate regression based on iterative fitting
of a continued fraction by incorporating additive spline models. We compared it
with established methods such as AdaBoost, Kernel Ridge, Linear Regression,
Lasso Lars, Linear Support Vector Regression, Multi-Layer Perceptrons, Random
Forests, Stochastic Gradient Descent and XGBoost. We tested the performance on
the important problem of predicting the critical temperature of superconductors
based on physical-chemical characteristics.
- Abstract(参考訳): 人工知能では、多くの変数の未知のターゲット関数を$y=f(\mathbf{x})$で特定し、限定されたインスタンスセットを$s=\{(\mathbf{x^{}) とすることが多い。
(i)}},y^{
(i)})\}$ with $\mathbf{x^{} である。
(i)}} \in D$ ここで$D$は興味のある領域である。
トレーニングセットとして$S$を参照し、最後のクエストは、新しい$\mathbf{x}$に対してこのターゲット関数を近似する数学的モデルを特定することである。
(j)}} \} \subset d$ with $t \neq s$(つまり、モデルの一般化をテストする)。
しかし、いくつかのアプリケーションにとって、主な関心事は、大きなドメイン$D'$に$D$を含む未知の関数をうまく近似することである。
例えば、新しい構造の設計を含む場合、$f$を最大化することに興味があるかもしれないので、$S$から派生したモデルは、$S$で観測された最も大きな値を持つサンプルに対して$D'$でうまく一般化すべきである。
その意味では、aiシステムは設計プロセスを導く重要な情報を提供するだろう。例えば、学習されたモデルを代理関数として使用して、新しい実験室実験を設計する。
本稿では,スプラインモデルの導入による連続分数の反復的適合に基づく多変量回帰法を提案する。
AdaBoost, Kernel Ridge, Linear Regression, Lasso Lars, Linear Support Vector Regression, Multi-Layer Perceptrons, Random Forests, Stochastic Gradient Descent, XGBoostなどの既存の手法と比較した。
超伝導体の臨界温度を物理化学的特性に基づいて予測する重要な問題について実験を行った。
関連論文リスト
- Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations [40.77319247558742]
目的関数 $f_*:mathbbRdtomathbbR$ を加法構造で学習する際の計算複雑性について検討する。
2層ニューラルネットワークの勾配学習により,$f_*$の大規模なサブセットを効率的に学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-17T17:59:17Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Agnostic Active Learning of Single Index Models with Linear Sample Complexity [27.065175036001246]
F(mathbf x) = f(langle mathbf w, mathbf xrangle)$。
論文 参考訳(メタデータ) (2024-05-15T13:11:28Z) - Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - Regret-Optimal Federated Transfer Learning for Kernel Regression with Applications in American Option Pricing [8.723136784230906]
本稿では、中央プランナーがデータセットにアクセス可能なフェデレーショントランスファー学習のための最適反復スキームを提案する。
我々の目標は、生成されたパラメータの累積偏差を$thetai(t)_t=0T$で最小化することである。
後悔と最適化のアルゴリズム内で対称性を活用することで, $mathcalO(Np2)$少なめの初等演算を伴って動作する,ほぼ後悔のいく$_optimalを開発する。
論文 参考訳(メタデータ) (2023-09-08T19:17:03Z) - High-dimensional Asymptotics of Feature Learning: How One Gradient Step
Improves the Representation [89.21686761957383]
2層ネットワークにおける第1層パラメータ $boldsymbolW$ の勾配降下ステップについて検討した。
我々の結果は、一つのステップでもランダムな特徴に対してかなりの優位性が得られることを示した。
論文 参考訳(メタデータ) (2022-05-03T12:09:59Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Fast Approximate Multi-output Gaussian Processes [6.6174748514131165]
提案手法のトレーニングには、$N×n$固有関数行列と$n×n$逆数しか必要とせず、$n$は選択された固有値の数である。
提案手法は,複数の出力に対して回帰し,任意の順序の回帰器の導関数を推定し,それらの相関関係を学習することができる。
論文 参考訳(メタデータ) (2020-08-22T14:34:45Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Statistical-Query Lower Bounds via Functional Gradients [19.5924910463796]
我々は、寛容$n- (1/epsilon)b$の統計クエリアルゴリズムは、一定の$bに対して少なくとも$2nc epsilon$クエリを使用する必要があることを示す。
実数値学習では珍しいSQ学習アルゴリズムが一般的である(相関学習とは対照的に)。
論文 参考訳(メタデータ) (2020-06-29T05:15:32Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。