論文の概要: Machine Learning Toric Duality in Brane Tilings
- arxiv url: http://arxiv.org/abs/2409.15251v1
- Date: Mon, 23 Sep 2024 17:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 13:52:58.703753
- Title: Machine Learning Toric Duality in Brane Tilings
- Title(参考訳): ブレインタイリングにおける機械学習のトーリック双対性
- Authors: Pietro Capuozzo, Tancredi Schettini Gherardini, Benjamin Suzzoni,
- Abstract要約: 4d$mathcalN=1$量子場理論におけるセイベルグ双対性の研究に様々な機械学習手法を適用する。
複雑な赤外双対性のネットワークはそのような理論の空間を相互接続し、それを普遍性類に分割する。
我々は、conifold の $mathbbZ_mtimesmathbbZ_n$ orbifold で実現されたセイベルグ双対理論のクラスを特定するために、完全に連結されたニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We apply a variety of machine learning methods to the study of Seiberg duality within 4d $\mathcal{N}=1$ quantum field theories arising on the worldvolumes of D3-branes probing toric Calabi-Yau 3-folds. Such theories admit an elegant description in terms of bipartite tessellations of the torus known as brane tilings or dimer models. An intricate network of infrared dualities interconnects the space of such theories and partitions it into universality classes, the prediction and classification of which is a problem that naturally lends itself to a machine learning investigation. In this paper, we address a preliminary set of such enquiries. We begin by training a fully connected neural network to identify classes of Seiberg dual theories realised on $\mathbb{Z}_m\times\mathbb{Z}_n$ orbifolds of the conifold and achieve $R^2=0.988$. Then, we evaluate various notions of robustness of our methods against perturbations of the space of theories under investigation, and discuss these results in terms of the nature of the neural network's learning. Finally, we employ a more sophisticated residual architecture to classify the toric phase space of the $Y^{6,0}$ theories, and to predict the individual gauged linear $\sigma$-model multiplicities in toric diagrams thereof. In spite of the non-trivial nature of this task, we achieve remarkably accurate results; namely, upon fixing a choice of Kasteleyn matrix representative, the regressor achieves a mean absolute error of $0.021$. We also discuss how the performance is affected by relaxing these assumptions.
- Abstract(参考訳): 本研究では, 4d $\mathcal{N}=1$ 量子場理論におけるシーバーグ双対性の研究に, トーリック・カラビ・ヤウ3次元多様体を探索するD3-ブレーンの世界体積に基づいて, 様々な機械学習手法を適用した。
このような理論は、ブレイン・タイリングやダイマー・モデルとして知られるトーラスの2部式テッセルレーションという観点からはエレガントな記述である。
複雑な赤外双対性のネットワークは、そのような理論の空間を相互接続し、それを普遍性クラスに分割する。
本稿では,そのような質問の予備的集合について述べる。
まず、完全連結ニューラルネットワークをトレーニングして、共形体の $\mathbb{Z}_m\times\mathbb{Z}_n$ で実現されたセイベルグ双対理論のクラスを特定し、$R^2=0.988$ を達成する。
そこで我々は,研究中の理論空間の摂動に対する手法の堅牢性に関する様々な概念を評価し,ニューラルネットワークの学習の性質の観点からこれらの結果について議論する。
最後に、より洗練された残留アーキテクチャを用いて、$Y^{6,0}$理論のトーリック位相空間を分類し、そのトーリック図形の個々のゲージ付き線型$\sigma$-model乗法を予測する。
このタスクの非自明な性質にもかかわらず、我々は驚くほど正確な結果を得る。すなわち、カスティーリン行列の代表の選び方を修正すると、回帰器の平均絶対誤差は0.021$である。
また、これらの仮定を緩和することによってパフォーマンスがどのように影響を受けるかについても論じる。
関連論文リスト
- Deep learning lattice gauge theories [0.0]
ニューラルネットワーク量子状態を用いて格子ゲージ理論の基底状態を2+1$次元で正確に計算する。
この結果から,ニューラルネットワーク量子状態は格子ゲージ理論の高精度な研究方法として有望であることが示唆された。
論文 参考訳(メタデータ) (2024-05-23T17:46:49Z) - Understanding the Double Descent Phenomenon in Deep Learning [49.1574468325115]
このチュートリアルは、古典的な統計学習の枠組みを設定し、二重降下現象を導入する。
いくつかの例を見て、セクション2では、二重降下において重要な役割を果たすと思われる帰納的バイアスを導入している。
第3節は2つの線形モデルで二重降下を探索し、最近の関連する研究から他の視点を提供する。
論文 参考訳(メタデータ) (2024-03-15T16:51:24Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - How does unlabeled data improve generalization in self-training? A
one-hidden-layer theoretical analysis [93.37576644429578]
この研究は、既知の反復的自己学習パラダイムに関する最初の理論的分析を確立する。
トレーニング収束と一般化能力の両面で、ラベルなしデータの利点を実証する。
また、浅部ニューラルネットワークから深部ニューラルネットワークへの実験は、我々の確立した自己学習に関する理論的知見の正しさを正当化するものである。
論文 参考訳(メタデータ) (2022-01-21T02:16:52Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Quantum field-theoretic machine learning [0.0]
我々は、$phi4$スカラー場理論をマルコフ確率場の数学的に厳密な枠組み内の機械学習アルゴリズムとして再考する。
ニューラルネットワークはまた、従来のニューラルネットワークの一般化と見なせる$phi4$理論から派生している。
論文 参考訳(メタデータ) (2021-02-18T16:12:51Z) - Theory of Deep Convolutional Neural Networks II: Spherical Analysis [9.099589602551573]
単位球面$mathbbSd-1$ of $mathbbRd$ 上の近似関数に適用された深部畳み込みニューラルネットワークの族を考える。
我々の解析は、近似関数がソボレフ空間 $Wr_infty (mathbbSd-1)$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
論文 参考訳(メタデータ) (2020-07-28T14:54:30Z) - The Gaussian equivalence of generative models for learning with shallow
neural networks [30.47878306277163]
本研究では,事前学習した生成モデルから得られたデータに基づいて学習したニューラルネットワークの性能について検討する。
この等価性を裏付ける厳密で解析的で数値的な証拠を3本提供します。
これらの結果は、現実的なデータを持つ機械学習モデルの理論研究への有効な道を開く。
論文 参考訳(メタデータ) (2020-06-25T21:20:09Z) - Quiver Mutations, Seiberg Duality and Machine Learning [3.717544246477156]
我々は、クラスター代数の文脈における数学にも関心を持つ、クイバーゲージ理論のケースに焦点を当てる。
機械学習の性能は,クラス数や突然変異型など,いくつかの変数に依存する。
考慮されたすべての質問において、高い精度と信頼性が達成できる。
論文 参考訳(メタデータ) (2020-06-18T18:01:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。