論文の概要: Machine Learning Calabi-Yau Four-folds
- arxiv url: http://arxiv.org/abs/2009.02544v2
- Date: Mon, 14 Sep 2020 11:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 21:10:30.160564
- Title: Machine Learning Calabi-Yau Four-folds
- Title(参考訳): 機械学習のカラビヤウフォーフォールド
- Authors: Yang-Hui He, and Andre Lukas
- Abstract要約: ホッジ数は基礎となる多様体データに非自明に依存する。
ホッジ数h1,1およびh3,1のカラビ・ヤウ 4次元多様体に対する教師付き学習について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hodge numbers of Calabi-Yau manifolds depend non-trivially on the underlying
manifold data and they present an interesting challenge for machine learning.
In this letter we consider the data set of complete intersection Calabi-Yau
four-folds, a set of about 900,000 topological types, and study supervised
learning of the Hodge numbers h^1,1 and h^3,1 for these manifolds. We find that
h^1,1 can be successfully learned (to 96% precision) by fully connected
classifier and regressor networks. While both types of networks fail for h^3,1,
we show that a more complicated two-branch network, combined with feature
enhancement, can act as an efficient regressor (to 98% precision) for h^3,1, at
least for a subset of the data. This hints at the existence of an, as yet
unknown, formula for Hodge numbers.
- Abstract(参考訳): カラビ・ヤウ多様体のホッジ数は基礎となる多様体データに非自明に依存し、機械学習に興味深い挑戦を与える。
このレターでは、約900,000の位相型からなる完全交叉カラビ・ヤウ 4次元多様体のデータセットを検討し、これらの多様体に対するホッジ数 h^1,1 および h^3,1 の教師付き学習を研究する。
h^1,1 は完全連結型分類器と回帰器ネットワークにより(精度 96% まで)学習可能である。
どちらのタイプのネットワークもh^3,1ではフェールするが、機能拡張と組み合わせたより複雑な2分岐ネットワークは、少なくともデータのサブセットの場合、h^3,1の効率的な回帰器(最大98%の精度)として機能することを示す。
これは、まだ未知のホッジ数の公式の存在を暗示している。
関連論文リスト
- Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Deep learning complete intersection Calabi-Yau manifolds [0.0]
完全交点Calabi-Yau(CICY)の3倍、4倍の深層学習技術の進歩を概観する。
まず、ニューラルネットワークアーキテクチャを記述する前に、方法論的側面とデータ分析について議論する。
低ホッジ数から高ホッジ数への外挿予測の新しい結果を含む。
論文 参考訳(メタデータ) (2023-11-20T15:37:39Z) - Constructing and Machine Learning Calabi-Yau Five-folds [0.0]
コホモロジーデータに基づいて、教師付き機械学習を行う。
四つ以下の複素射影空間の積において、すべての可能な完備交叉カラビ・ヤウ多様体を構成する。
h1,1$は非常に効率的に学習でき、R2$スコアは非常に高く、精度は96%である。
論文 参考訳(メタデータ) (2023-10-24T16:07:08Z) - Deep multi-task mining Calabi-Yau four-folds [6.805575417034372]
射影空間の積の完全交叉として構築されたカラビ・ヤウ四次元多様体のデータセットを考える。
30%(80%)のトレーニング比率で、100%の精度で$h(1,1)$、97%の精度で$h(2,1)$に達する。
論文 参考訳(メタデータ) (2021-08-04T18:00:15Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Machine learning for complete intersection Calabi-Yau manifolds: a
methodological study [0.0]
我々は機械学習(ML)を用いてホッジ数$h1,1$と$h2,1$の完全なカラビ・ヤウ交差点を予測する問題を再考する。
我々は、古いデータセットのインセプションモデルにインスパイアされたニューラルネットワークを使用して、トレーニング用のデータの30% (resp. 70%) のみを使用して、97% (resp. 99%) の精度で$h1,1$を得る。
新しい例では、単純な線形回帰は、トレーニング用のデータの30%でほぼ100%の正確性をもたらす。
論文 参考訳(メタデータ) (2020-07-30T19:43:49Z) - Inception Neural Network for Complete Intersection Calabi-Yau 3-folds [0.0]
我々は、GoogleのInceptionモデルにインスパイアされたニューラルネットワークを導入し、Hodgeの$h1,1$の完全な交点Calabi-Yau(CICY)3倍を計算する。
このアーキテクチャは、既存の結果に対する予測の精度を大幅に改善し、トレーニング用のデータのわずか30%で、すでに97%の精度を実現している。
論文 参考訳(メタデータ) (2020-07-27T08:56:19Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。