論文の概要: Constructing and Machine Learning Calabi-Yau Five-folds
- arxiv url: http://arxiv.org/abs/2310.15966v1
- Date: Tue, 24 Oct 2023 16:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 17:46:59.700754
- Title: Constructing and Machine Learning Calabi-Yau Five-folds
- Title(参考訳): カラビヤウ五重組の構築と機械学習
- Authors: R. Alawadhi, D. Angella, A. Leonardo and T. Schettini Gherardini
- Abstract要約: コホモロジーデータに基づいて、教師付き機械学習を行う。
四つ以下の複素射影空間の積において、すべての可能な完備交叉カラビ・ヤウ多様体を構成する。
h1,1$は非常に効率的に学習でき、R2$スコアは非常に高く、精度は96%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct all possible complete intersection Calabi-Yau five-folds in a
product of four or less complex projective spaces, with up to four constraints.
We obtain $27068$ spaces, which are not related by permutations of rows and
columns of the configuration matrix, and determine the Euler number for all of
them. Excluding the $3909$ product manifolds among those, we calculate the
cohomological data for $12433$ cases, i.e. $53.7 \%$ of the non-product spaces,
obtaining $2375$ different Hodge diamonds. The dataset containing all the above
information is available at
https://www.dropbox.com/scl/fo/z7ii5idt6qxu36e0b8azq/h?rlkey=0qfhx3tykytduobpld510gsfy&dl=0
. The distributions of the invariants are presented, and a comparison with the
lower-dimensional analogues is discussed. Supervised machine learning is
performed on the cohomological data, via classifier and regressor (both fully
connected and convolutional) neural networks. We find that $h^{1,1}$ can be
learnt very efficiently, with very high $R^2$ score and an accuracy of $96\%$,
i.e. $96 \%$ of the predictions exactly match the correct values. For
$h^{1,4},h^{2,3}, \eta$, we also find very high $R^2$ scores, but the accuracy
is lower, due to the large ranges of possible values.
- Abstract(参考訳): 我々は、最大4つの制約を持つ4つ以上の複素射影空間の積において、すべての可能な完備交叉カラビ・ヤウ多様体を構成する。
構成行列の行と列の置換に関係のない27068$空間を取得し、それらすべてに対してオイラー数を決定する。
これらのうち3,909ドルの製品多様体を除いて、コホモロジーデータは非生産空間の1,2433ドルのケース、すなわち53.7セントのコホモロジーデータを計算し、2,375ドルの異なるホッジダイヤモンドを得る。
上記のすべての情報を含むデータセットは、https://www.dropbox.com/scl/fo/z7ii5idt6qxu36e0b8azq/h?
rlkey=0qfhx3tykytduobpld510gsfy&dl=0。
不変量の分布を提示し, 低次元の類似物との比較を行った。
教師付き機械学習は、分類器とレグレッサー(完全連結と畳み込みの両方)を介してコホモロジーデータ上で実行される。
私たちは、$h^{1,1}$を非常に効率的に学習することができ、非常に高い$r^2$スコアと996\%$の正確さ、すなわち正確な値に正確に一致する予測の96 \%$である。
h^{1,4},h^{2,3}, \eta$については、非常に高い$r^2$スコアが得られますが、可能な値の範囲が広いため、精度は低くなります。
関連論文リスト
- A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Deep multi-task mining Calabi-Yau four-folds [6.805575417034372]
射影空間の積の完全交叉として構築されたカラビ・ヤウ四次元多様体のデータセットを考える。
30%(80%)のトレーニング比率で、100%の精度で$h(1,1)$、97%の精度で$h(2,1)$に達する。
論文 参考訳(メタデータ) (2021-08-04T18:00:15Z) - Learning elliptic partial differential equations with randomized linear
algebra [2.538209532048867]
ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
論文 参考訳(メタデータ) (2021-01-31T16:57:59Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - An Algorithm for Learning Smaller Representations of Models With Scarce
Data [0.0]
データセットが小さすぎるか、完全に代表的でない状況下で、二項分類問題を解くための欲求的アルゴリズムを提案する。
それは、ゆるやかな精度の制約、反復的なハイパーパラメータプルーニング手順、新しいデータを生成するために使われる関数といった訓練されたモデルに依存している。
論文 参考訳(メタデータ) (2020-10-15T19:17:51Z) - Machine Learning Calabi-Yau Four-folds [0.0]
ホッジ数は基礎となる多様体データに非自明に依存する。
ホッジ数h1,1およびh3,1のカラビ・ヤウ 4次元多様体に対する教師付き学習について検討した。
論文 参考訳(メタデータ) (2020-09-05T14:54:25Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。