論文の概要: Machine learning for complete intersection Calabi-Yau manifolds: a
methodological study
- arxiv url: http://arxiv.org/abs/2007.15706v2
- Date: Thu, 17 Jun 2021 06:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:08:20.255191
- Title: Machine learning for complete intersection Calabi-Yau manifolds: a
methodological study
- Title(参考訳): 完全交叉カラビ・ヤウ多様体に対する機械学習:方法論的研究
- Authors: Harold Erbin, Riccardo Finotello
- Abstract要約: 我々は機械学習(ML)を用いてホッジ数$h1,1$と$h2,1$の完全なカラビ・ヤウ交差点を予測する問題を再考する。
我々は、古いデータセットのインセプションモデルにインスパイアされたニューラルネットワークを使用して、トレーニング用のデータの30% (resp. 70%) のみを使用して、97% (resp. 99%) の精度で$h1,1$を得る。
新しい例では、単純な線形回帰は、トレーニング用のデータの30%でほぼ100%の正確性をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the question of predicting both Hodge numbers $h^{1,1}$ and
$h^{2,1}$ of complete intersection Calabi-Yau (CICY) 3-folds using machine
learning (ML), considering both the old and new datasets built respectively by
Candelas-Dale-Lutken-Schimmrigk / Green-H\"ubsch-Lutken and by
Anderson-Gao-Gray-Lee. In real world applications, implementing a ML system
rarely reduces to feed the brute data to the algorithm. Instead, the typical
workflow starts with an exploratory data analysis (EDA) which aims at
understanding better the input data and finding an optimal representation. It
is followed by the design of a validation procedure and a baseline model.
Finally, several ML models are compared and combined, often involving neural
networks with a topology more complicated than the sequential models typically
used in physics. By following this procedure, we improve the accuracy of ML
computations for Hodge numbers with respect to the existing literature. First,
we obtain 97% (resp. 99%) accuracy for $h^{1,1}$ using a neural network
inspired by the Inception model for the old dataset, using only 30% (resp. 70%)
of the data for training. For the new one, a simple linear regression leads to
almost 100% accuracy with 30% of the data for training. The computation of
$h^{2,1}$ is less successful as we manage to reach only 50% accuracy for both
datasets, but this is still better than the 16% obtained with a simple neural
network (SVM with Gaussian kernel and feature engineering and sequential
convolutional network reach at best 36%). This serves as a proof of concept
that neural networks can be valuable to study the properties of geometries
appearing in string theory.
- Abstract(参考訳): 我々は、Candlas-Dale-Lutken-Schimmrigk / Green-H\'ubsch-Lutken と Anderson-Gao-Gray-Lee がそれぞれ構築した古いデータセットと新しいデータセットを考慮し、機械学習(ML) を用いた完全な交点の Hodge 数 $h^{1,1} と $h^{2,1} の両方を予測する問題を再考する。
実世界のアプリケーションでは、MLシステムを実装することで、ブルートデータをアルゴリズムに供給することが滅多にない。
代わりに、典型的なワークフローは、入力データをよりよく理解し、最適な表現を見つけることを目的とした探索データ分析(EDA)から始まる。
続いて、検証手順とベースラインモデルの設計が続く。
最後に、いくつかのMLモデルを比較して組み合わせ、しばしば物理で通常使われるシーケンシャルモデルよりも複雑なトポロジを持つニューラルネットワークを含む。
この手順に従うことで、既存の文献に対するホッジ数に対するML計算の精度を向上させることができる。
まず、古いデータセットのインセプションモデルにインスパイアされたニューラルネットワークを使用して、トレーニング用のデータの30%(resp. 70%)のみを使用して、$h^{1,1}$で97%(resp. 99%)の精度を得る。
新しい例では、単純な線形回帰は、トレーニング用のデータの30%でほぼ100%の正確性をもたらす。
h^{2,1}$の計算は、両方のデータセットで50%の精度に到達できたため成功していないが、単純なニューラルネットワーク(ガウスカーネルと機能エンジニアリングを備えたSVMとシーケンシャル畳み込みネットワークのリーチが最大で36%)で得られた16%よりも、依然として優れている。
これは、ニューラルネットワークが弦理論に現れる幾何学の性質を研究するのに役立つという概念の証明となる。
関連論文リスト
- Neural-g: A Deep Learning Framework for Mixing Density Estimation [16.464806944964003]
混合(または先行)密度推定は、機械学習と統計学において重要な問題である。
本稿では,新しいニューラルネットワークを用いたモデリング手法であるNeural-$g$を提案する。
論文 参考訳(メタデータ) (2024-06-10T03:00:28Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Is Stochastic Gradient Descent Near Optimal? [0.0]
本研究では,多数のサンプルとクエリの総数を用いて,勾配勾配勾配の誤差が小さいことを示す。
このことは、SGDがJoen & Van Roy (arXiv:2203.00246) の情報理論的なサンプル複雑性境界を計算的に効率よく達成していることを示唆している。
論文 参考訳(メタデータ) (2022-09-18T18:26:43Z) - A contextual analysis of multi-layer perceptron models in classifying
hand-written digits and letters: limited resources [0.0]
我々は,前処理や特徴抽出を行わずに,終端から終端までのバニラニューラルネットワーク(MLP)アプローチを純粋に検証した。
基礎的なデータマイニング操作は,計算時間の観点からモデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2021-07-05T04:30:37Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - Inception Neural Network for Complete Intersection Calabi-Yau 3-folds [0.0]
我々は、GoogleのInceptionモデルにインスパイアされたニューラルネットワークを導入し、Hodgeの$h1,1$の完全な交点Calabi-Yau(CICY)3倍を計算する。
このアーキテクチャは、既存の結果に対する予測の精度を大幅に改善し、トレーニング用のデータのわずか30%で、すでに97%の精度を実現している。
論文 参考訳(メタデータ) (2020-07-27T08:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。