論文の概要: Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials
- arxiv url: http://arxiv.org/abs/2012.03774v3
- Date: Mon, 10 Jul 2023 06:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:53:05.234982
- Title: Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials
- Title(参考訳): 連続分率による外挿の学習:超伝導材料の臨界温度予測
- Authors: Pablo Moscato, Mohammad Nazmul Haque, Kevin Huang, Julia Sloan, Jon C.
de Oliveira
- Abstract要約: 人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
- 参考スコア(独自算出の注目度): 5.905364646955811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of Artificial Intelligence (AI) and Machine Learning (ML), the
approximation of unknown target functions $y=f(\mathbf{x})$ using limited
instances $S={(\mathbf{x^{(i)}},y^{(i)})}$, where $\mathbf{x^{(i)}} \in D$ and
$D$ represents the domain of interest, is a common objective. We refer to $S$
as the training set and aim to identify a low-complexity mathematical model
that can effectively approximate this target function for new instances
$\mathbf{x}$. Consequently, the model's generalization ability is evaluated on
a separate set $T=\{\mathbf{x^{(j)}}\} \subset D$, where $T \neq S$, frequently
with $T \cap S = \emptyset$, to assess its performance beyond the training set.
However, certain applications require accurate approximation not only within
the original domain $D$ but also in an extended domain $D'$ that encompasses
$D$. This becomes particularly relevant in scenarios involving the design of
new structures, where minimizing errors in approximations is crucial. For
example, when developing new materials through data-driven approaches, the
AI/ML system can provide valuable insights to guide the design process by
serving as a surrogate function. Consequently, the learned model can be
employed to facilitate the design of new laboratory experiments. In this paper,
we propose a method for multivariate regression based on iterative fitting of a
continued fraction, incorporating additive spline models. We compare the
performance of our method with established techniques, including AdaBoost,
Kernel Ridge, Linear Regression, Lasso Lars, Linear Support Vector Regression,
Multi-Layer Perceptrons, Random Forests, Stochastic Gradient Descent, and
XGBoost. To evaluate these methods, we focus on an important problem in the
field: predicting the critical temperature of superconductors based on
physical-chemical characteristics.
- Abstract(参考訳): 人工知能(ai)と機械学習(ml)の分野において、未知のターゲット関数の近似は、限定インスタンス $s={(\mathbf{x^{}) を用いて $y=f(\mathbf{x})$ である。
(i)}},y^{
ここで$\mathbf{x^{} である。
(i)}} \in D$ および $D$ は関心領域を表し、共通の目的である。
私たちは$s$をトレーニングセットと呼び、新しいインスタンスのターゲット関数である$\mathbf{x}$を効果的に近似できる低複素数モデルを特定することを目的としています。
従って、モデルの一般化能力は、別の集合 $T=\{\mathbf{x^{ で評価される。
(j)}}\} \subset d$, ここで $t \neq s$ はしばしば $t \cap s = \emptyset$ でトレーニングセット以上のパフォーマンスを評価する。
しかし、特定のアプリケーションは、元のドメイン $d$ 内だけでなく、$d$ を含む拡張ドメイン $d'$ 内でも正確な近似を必要とする。
これは、近似における誤差の最小化が重要となる新しい構造の設計を含むシナリオにおいて特に重要となる。
例えば、データ駆動アプローチを通じて新しい材料を開発する場合、AI/MLシステムは、サロゲート機能として機能することによって設計プロセスのガイドに有用な洞察を提供することができる。
その結果、新しい実験実験の設計を容易にするために学習モデルを用いることができる。
本稿では,連続分数の反復フィッティングに基づく多変量回帰法を提案し,加法的スプラインモデルを適用した。
AdaBoost, Kernel Ridge, Linear Regression, Lasso Lars, Linear Support Vector Regression, Multi-Layer Perceptrons, Random Forests, Stochastic Gradient Descent, XGBoost など,既存の手法と比較した。
これらの方法を評価するために, 超伝導体の物理化学的特性に基づく臨界温度の予測という分野における重要な問題に着目する。
関連論文リスト
- Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations [40.77319247558742]
目的関数 $f_*:mathbbRdtomathbbR$ を加法構造で学習する際の計算複雑性について検討する。
2層ニューラルネットワークの勾配学習により,$f_*$の大規模なサブセットを効率的に学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-17T17:59:17Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Agnostic Active Learning of Single Index Models with Linear Sample Complexity [27.065175036001246]
F(mathbf x) = f(langle mathbf w, mathbf xrangle)$。
論文 参考訳(メタデータ) (2024-05-15T13:11:28Z) - Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - Regret-Optimal Federated Transfer Learning for Kernel Regression with Applications in American Option Pricing [8.723136784230906]
本稿では、中央プランナーがデータセットにアクセス可能なフェデレーショントランスファー学習のための最適反復スキームを提案する。
我々の目標は、生成されたパラメータの累積偏差を$thetai(t)_t=0T$で最小化することである。
後悔と最適化のアルゴリズム内で対称性を活用することで, $mathcalO(Np2)$少なめの初等演算を伴って動作する,ほぼ後悔のいく$_optimalを開発する。
論文 参考訳(メタデータ) (2023-09-08T19:17:03Z) - High-dimensional Asymptotics of Feature Learning: How One Gradient Step
Improves the Representation [89.21686761957383]
2層ネットワークにおける第1層パラメータ $boldsymbolW$ の勾配降下ステップについて検討した。
我々の結果は、一つのステップでもランダムな特徴に対してかなりの優位性が得られることを示した。
論文 参考訳(メタデータ) (2022-05-03T12:09:59Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Fast Approximate Multi-output Gaussian Processes [6.6174748514131165]
提案手法のトレーニングには、$N×n$固有関数行列と$n×n$逆数しか必要とせず、$n$は選択された固有値の数である。
提案手法は,複数の出力に対して回帰し,任意の順序の回帰器の導関数を推定し,それらの相関関係を学習することができる。
論文 参考訳(メタデータ) (2020-08-22T14:34:45Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Statistical-Query Lower Bounds via Functional Gradients [19.5924910463796]
我々は、寛容$n- (1/epsilon)b$の統計クエリアルゴリズムは、一定の$bに対して少なくとも$2nc epsilon$クエリを使用する必要があることを示す。
実数値学習では珍しいSQ学習アルゴリズムが一般的である(相関学習とは対照的に)。
論文 参考訳(メタデータ) (2020-06-29T05:15:32Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。