論文の概要: Machine Learned Calabi-Yau Metrics and Curvature
- arxiv url: http://arxiv.org/abs/2211.09801v3
- Date: Tue, 6 Jun 2023 15:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 21:24:03.661749
- Title: Machine Learned Calabi-Yau Metrics and Curvature
- Title(参考訳): 機械学習によるカラビヤウ計量と曲率
- Authors: Per Berglund, Giorgi Butbaia, Tristan H\"ubsch, Vishnu Jejjala,
Dami\'an Mayorga Pe\~na, Challenger Mishra, Justin Tan
- Abstract要約: リッチ・フラット(カラビ・ヤウ)計量の発見は、弦理論や現象学に深い意味を持つ幾何学における長期的問題である。
この問題に対する新たな攻撃は、ニューラルネットワークを使用して、与えられたK"ahlerクラス内のカラビ・ヤウ計量への近似を工学する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding Ricci-flat (Calabi-Yau) metrics is a long standing problem in
geometry with deep implications for string theory and phenomenology. A new
attack on this problem uses neural networks to engineer approximations to the
Calabi-Yau metric within a given K\"ahler class. In this paper we investigate
numerical Ricci-flat metrics over smooth and singular K3 surfaces and
Calabi-Yau threefolds. Using these Ricci-flat metric approximations for the
Cefal\'u family of quartic twofolds and the Dwork family of quintic threefolds,
we study characteristic forms on these geometries. We observe that the
numerical stability of the numerically computed topological characteristic is
heavily influenced by the choice of the neural network model, in particular, we
briefly discuss a different neural network model, namely Spectral networks,
which correctly approximate the topological characteristic of a Calabi-Yau.
Using persistent homology, we show that high curvature regions of the manifolds
form clusters near the singular points. For our neural network approximations,
we observe a Bogomolov--Yau type inequality $3c_2 \geq c_1^2$ and observe an
identity when our geometries have isolated $A_1$ type singularities. We sketch
a proof that $\chi(X~\smallsetminus~\mathrm{Sing}\,{X}) +
2~|\mathrm{Sing}\,{X}| = 24$ also holds for our numerical approximations.
- Abstract(参考訳): ricci-flat (calabi-yau)メトリクスを見つけることは、弦理論や現象論に深い意味を持つ幾何学における長い問題である。
この問題に対する新たな攻撃は、ニューラルネットワークを使用して、所定のK\"ahlerクラス内のCalabi-Yauメトリックへの近似を設計する。
本稿では, 滑らかかつ特異なK3面およびカラビ・ヤウ3次元上のリッチ平坦な数値測度について検討する。
これらのリッチ平坦な計量近似を用いて、四面体のCefal\'u族と四面体のDwork族を解析し、これらの幾何学上の特徴形式を研究する。
数値計算された位相特性の数値安定性はニューラルネットワークモデルの選択に大きく影響しており、特に、カルビヤウの位相特性を正確に近似するスペクトルネットワークモデルについて簡単に議論する。
永続ホモロジーを用いて、多様体の高曲率領域が特異点付近のクラスターを形成することを示す。
我々のニューラルネットワーク近似では、ボゴモロフ-ヤウ型不等式3c_2 \geq c_1^2$を観察し、我々のジオメトリが$A_1$型特異点を孤立させたときにアイデンティティを観察する。
我々は、$\chi(x~\smallsetminus~\mathrm{sing}\,{x}) + 2~|\mathrm{sing}\,{x}| = 24$ という証明をスケッチする。
関連論文リスト
- Information-Theoretic Thresholds for Planted Dense Cycles [52.076657911275525]
本研究では,社会科学や生物科学においてユビキタスな小世界ネットワークのランダムグラフモデルについて検討する。
植え込み高密度サイクルの検出と回復の両面において、情報理論の閾値を$n$, $tau$、エッジワイド信号対雑音比$lambda$で特徴づける。
論文 参考訳(メタデータ) (2024-02-01T03:39:01Z) - DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Machine learning detects terminal singularities [49.1574468325115]
Q-ファノ多様体は、Q-階数終端特異点を持つ正の曲線形状である。
その重要性にもかかわらず、Q-Fanoの分類は未だ不明である。
本稿では,この分類を理解するために機械学習を用いることを実証する。
論文 参考訳(メタデータ) (2023-10-31T13:51:24Z) - Krylov Complexity in Calabi-Yau Quantum Mechanics [0.0]
量子力学系におけるクリロフ複雑性は、よく知られた局所トーリックなカラビ・ヤウ測地から導かれる。
カラビ・ヤウモデルの場合、Laczos係数は小さな$n$sに対して線形よりも遅く成長し、可積分モデルの挙動と一致することが分かる。
論文 参考訳(メタデータ) (2022-12-06T12:32:04Z) - Differential Geometry in Neural Implicits [0.6198237241838558]
トライアングルメッシュの離散微分幾何とニューラル暗黙曲面の連続微分幾何を橋渡しするニューラル暗黙の枠組みを導入する。
ニューラルネットワークの微分可能特性と三角形メッシュの離散幾何学を利用して、ニューラルネットワークをニューラルネットワークの暗黙関数のゼロレベル集合として近似する。
論文 参考訳(メタデータ) (2022-01-23T13:40:45Z) - Dynamically Stable Poincar\'e Embeddings for Neural Manifolds [10.76554740227876]
初期計量がポインカーボール上の双曲計量から逸脱する$L2$-norm摂動を持つなら、そのような計量のスケールされたリッチ・デターク流は滑らかで指数関数的に双曲計量に収束する。
具体的には、リッチフローの役割は、安定なポアンカーの球に自然に進化し、ユークリッド空間に写像されることである。
論文 参考訳(メタデータ) (2021-12-21T13:09:08Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Length Learning for Planar Euclidean Curves [0.0]
この研究は、正弦波データセットによって生成された平面サンプリング曲線の長さを学習することに焦点を当てる。
付加雑音と離散化誤差に対する頑健さを検証した。
論文 参考訳(メタデータ) (2021-02-03T06:30:03Z) - Neural Network Approximations for Calabi-Yau Metrics [0.0]
我々は、Fermat quintic、Dwork quintic、Tian-Yau多様体の数値的平坦な計量を推論するために、機械学習の手法を用いる。
本研究では,3桁のトレーニングを行った後,リッチ平坦性を評価する尺度が減少することを示す。
論文 参考訳(メタデータ) (2020-12-31T18:47:51Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。