論文の概要: Machine Learning Regularization for the Minimum Volume Formula of Toric
Calabi-Yau 3-folds
- arxiv url: http://arxiv.org/abs/2310.19276v1
- Date: Mon, 30 Oct 2023 05:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 21:35:36.633063
- Title: Machine Learning Regularization for the Minimum Volume Formula of Toric
Calabi-Yau 3-folds
- Title(参考訳): トーリックカラビ・ヤウ3次元多様体の最小体積公式のための機械学習正規化
- Authors: Eugene Choi, Rak-Kyeong Seong
- Abstract要約: 佐々木・アインシュタイン5次元多様体の最小体積に対する明示的な公式の集合を示す。
提示された公式は、トーリック・カラビ・ヤウの3次元多様体の幾何学的不変量である。
我々の研究は、広範なトーリック・カラビ・ヤウ3次元多様体の集合であっても、提案式は最小体積を驚くほど精度良く近似することを確認した。
- 参考スコア(独自算出の注目度): 3.2634122554914002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a collection of explicit formulas for the minimum volume of
Sasaki-Einstein 5-manifolds. The cone over these 5-manifolds is a toric
Calabi-Yau 3-fold. These toric Calabi-Yau 3-folds are associated with an
infinite class of 4d N=1 supersymmetric gauge theories, which are realized as
worldvolume theories of D3-branes probing the toric Calabi-Yau 3-folds. Under
the AdS/CFT correspondence, the minimum volume of the Sasaki-Einstein base is
inversely proportional to the central charge of the corresponding 4d N=1
superconformal field theories. The presented formulas for the minimum volume
are in terms of geometric invariants of the toric Calabi-Yau 3-folds. These
explicit results are derived by implementing machine learning regularization
techniques that advance beyond previous applications of machine learning for
determining the minimum volume. Moreover, the use of machine learning
regularization allows us to present interpretable and explainable formulas for
the minimum volume. Our work confirms that, even for extensive sets of toric
Calabi-Yau 3-folds, the proposed formulas approximate the minimum volume with
remarkable accuracy.
- Abstract(参考訳): 佐々木・アインシュタイン5次元多様体の最小体積に対する明示的な公式の集合を示す。
これらの5次元多様体上の円錐はトーリック・カラビ・ヤウ3次元多様体である。
これらのトーリックカラビ・ヤウ3次元多様体は、4d n=1 超対称ゲージ理論の無限類と関連付けられ、トーリックカラビ・ヤウ3次元多様体を推定するd3ブレーンの世界体積理論として実現される。
AdS/CFT対応の下では、佐々木・アインシュタイン基底の最小体積は対応する4d N=1超等角体理論の中心電荷に逆比例する。
最小体積の公式は、トーリック・カラビ・ヤウ3次元多様体の幾何学的不変量の観点から表される。
これらの明確な結果は、最小体積を決定する機械学習の以前の応用を超えて進歩する機械学習正規化技術を実装することで導かれる。
さらに、機械学習正規化を用いることで、最小体積に対して解釈可能かつ説明可能な式を提示できる。
我々の研究は、広範なトーリック・カラビ・ヤウ3次元多様体の集合であっても、最小体積を顕著な精度で近似することを確認する。
関連論文リスト
- Generative AI for Brane Configurations, Tropical Coamoeba and 4d N=1 Quiver Gauge Theories [0.0]
我々は、複雑な構造を入力として選択した生成AIモデルを訓練し、対応する熱帯コアメーバを生成する。
同じトーリックカラビ・ヤウ 3 次元に対応するブレーンタイリングの族に対する位相空間全体の高分解能表現を得る。
論文 参考訳(メタデータ) (2024-11-25T01:42:12Z) - FlatQuant: Flatness Matters for LLM Quantization [58.28221892035609]
重みとアクティベーションの平坦性を高めるための新しいポストトレーニング量子化手法であるFlatQuantを提案する。
提案手法では,各線形層に配向した最適アフィン変換を,軽量な対象ランタイムを介して数時間で校正する。
推論レイテンシーのために、FlatQuantは、プリ量子化変換によって引き起こされる遅延を、QuatRotの0.26xから単に$textbf0.07x$に減らし、プリフィルの$textbf2.3x$とデコードのための$textbf1.7x$のスピードアップをもたらす。
論文 参考訳(メタデータ) (2024-10-12T08:10:28Z) - Tempered Calculus for ML: Application to Hyperbolic Model Embedding [70.61101116794549]
MLで使用されるほとんどの数学的歪みは、本質的に自然界において積分的である。
本稿では,これらの歪みを改善するための基礎的理論とツールを公表し,機械学習の要件に対処する。
我々は、最近MLで注目を集めた問題、すなわち、ハイパーボリック埋め込みを「チープ」で正確なエンコーディングで適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-06T17:21:06Z) - Unsupervised Machine Learning Techniques for Exploring Tropical
Coamoeba, Brane Tilings and Seiberg Duality [0.0]
我々は、4d N=1超対称ゲージ理論のトーリック位相を特定するために教師なし機械学習手法を導入する。
これらの 4d N=1 超対称ゲージ理論は、トーリック・カラビ・ヤウ 3 倍の D3-ブレーンの世界理論である。
論文 参考訳(メタデータ) (2023-09-11T18:00:01Z) - Machine Learned Calabi-Yau Metrics and Curvature [0.0]
リッチ・フラット(カラビ・ヤウ)計量の発見は、弦理論や現象学に深い意味を持つ幾何学における長期的問題である。
この問題に対する新たな攻撃は、ニューラルネットワークを使用して、与えられたK"ahlerクラス内のカラビ・ヤウ計量への近似を工学する。
論文 参考訳(メタデータ) (2022-11-17T18:59:03Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Semiclassics: The hidden theory behind the success of DFT [0.0]
DFTの成功は、非常に特定の限界に関する半古典的な展開の観点から理解することができると論じる。
この極限は、リーブとサイモンによって、系の全電子エネルギーについて、ずっと前に同定された。
トータルエネルギーについて、トーマス・フェルミ理論は極限において相対的に正確なものとなる。
論文 参考訳(メタデータ) (2021-05-10T14:03:05Z) - Neural Network Approximations for Calabi-Yau Metrics [0.0]
我々は、Fermat quintic、Dwork quintic、Tian-Yau多様体の数値的平坦な計量を推論するために、機械学習の手法を用いる。
本研究では,3桁のトレーニングを行った後,リッチ平坦性を評価する尺度が減少することを示す。
論文 参考訳(メタデータ) (2020-12-31T18:47:51Z) - On Suboptimality of Least Squares with Application to Estimation of
Convex Bodies [74.39616164169131]
雑音支援関数の測定から得られる凸を次元$dgeq 6$で推定する際、最小広場の最適性に関するオープンな問題を解決した。
Least Squaresは準最適であり、$tildeTheta_d(n-2/(d-1))$であるのに対して、minimaxレートは$Theta_d(n-4/(d+3)$である。
論文 参考訳(メタデータ) (2020-06-07T05:19:00Z) - Non-Hermitian extension of the Nambu--Jona-Lasinio model in 3+1 and 1+1
dimensions [68.8204255655161]
量子色力学のナンブ-ジョナ-ラシニオモデルの3+1次元および1+1次元における非エルミート的PT対称拡張を示す。
どちらの場合も 3+1 次元と 1+1 次元において、非エルミート双線型項の包含は生成された質量に寄与する。
論文 参考訳(メタデータ) (2020-04-08T14:29:36Z) - A Diffusion Theory For Deep Learning Dynamics: Stochastic Gradient
Descent Exponentially Favors Flat Minima [91.11332770406007]
グラディエントDescent (SGD) は, 鋭いミニマよりも指数関数的に平坦なミニマを好んでいる。
また、小さな学習率か大規模なバッチトレーニングのどちらかが、ミニマから逃れるために指数関数的に多くのイテレーションを必要とすることも明らかにした。
論文 参考訳(メタデータ) (2020-02-10T02:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。