論文の概要: Calabi-Yau Metrics, Energy Functionals and Machine-Learning
- arxiv url: http://arxiv.org/abs/2112.10872v1
- Date: Mon, 20 Dec 2021 21:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:23:07.289449
- Title: Calabi-Yau Metrics, Energy Functionals and Machine-Learning
- Title(参考訳): calabi-yauメトリクス、エネルギー機能、機械学習
- Authors: Anthony Ashmore, Lucille Calmon, Yang-Hui He, Burt A. Ovrut
- Abstract要約: 機械学習は、少数のトレーニングデータのサンプルしか見ていないカラビ・ヤウ計量のK"ahlerポテンシャルを予測することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We apply machine learning to the problem of finding numerical Calabi-Yau
metrics. We extend previous work on learning approximate Ricci-flat metrics
calculated using Donaldson's algorithm to the much more accurate "optimal"
metrics of Headrick and Nassar. We show that machine learning is able to
predict the K\"ahler potential of a Calabi-Yau metric having seen only a small
sample of training data.
- Abstract(参考訳): 数値カラビ・ヤウ測度を求める問題に対して機械学習を適用した。
我々は,donaldsonのアルゴリズムを用いて計算した近似リッチフラットメトリックスを,headrickとnassarのより正確な"最適"メトリックスに拡張した。
機械学習は、少数のトレーニングデータのサンプルしか見ていないカラビ・ヤウ計量のK\'ahlerポテンシャルを予測することができることを示す。
関連論文リスト
- Calabi-Yau metrics through Grassmannian learning and Donaldson's algorithm [5.158605878911773]
K"ahlerメトリクスに対するリッチ平坦近似を得るための新しいアプローチを提案する。
グラスマン多様体上の勾配降下を用いて、切断の効率的な部分空間を同定する。
3次元のDwork族にメソッドを実装し、モジュライ空間の異なる点における振る舞いについてコメントする。
論文 参考訳(メタデータ) (2024-10-15T05:08:43Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Machine Learning Calabi-Yau Hypersurfaces [0.0]
カラビ・ヤウ3次元超曲面を持つ重み付きP4の古典的データベースを再検討する。
教師なしの手法は、トポロジカルデータの重みへのほとんど線形な依存を予想しない。
監督された手法は、R2 > 95%の精度で超曲面の位相パラメータをその重みから予測することに成功している。
論文 参考訳(メタデータ) (2021-12-12T23:17:31Z) - Learning Size and Shape of Calabi-Yau Spaces [0.0]
文字列圧縮空間のメトリクスを計算するための新しい機械学習ライブラリを提案する。
モンテカルロのサンプル積分の性能を従来の数値近似と比較した。
論文 参考訳(メタデータ) (2021-11-02T08:48:53Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Estimating informativeness of samples with Smooth Unique Information [108.25192785062367]
サンプルが最終的な重みを知らせる量と、重みによって計算される関数を知らせる量を測定します。
線形化ネットワークを用いてこれらの量の効率的な近似を行う。
本稿では,データセットの要約など,いくつかの問題に適用する。
論文 参考訳(メタデータ) (2021-01-17T10:29:29Z) - Neural Network Approximations for Calabi-Yau Metrics [0.0]
我々は、Fermat quintic、Dwork quintic、Tian-Yau多様体の数値的平坦な計量を推論するために、機械学習の手法を用いる。
本研究では,3桁のトレーニングを行った後,リッチ平坦性を評価する尺度が減少することを示す。
論文 参考訳(メタデータ) (2020-12-31T18:47:51Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。