論文の概要: Inception Neural Network for Complete Intersection Calabi-Yau 3-folds
- arxiv url: http://arxiv.org/abs/2007.13379v2
- Date: Tue, 16 Feb 2021 08:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 11:45:15.260169
- Title: Inception Neural Network for Complete Intersection Calabi-Yau 3-folds
- Title(参考訳): 完全交叉カラビ・ヤウ3次元多様体のためのインセプションニューラルネットワーク
- Authors: Harold Erbin, Riccardo Finotello
- Abstract要約: 我々は、GoogleのInceptionモデルにインスパイアされたニューラルネットワークを導入し、Hodgeの$h1,1$の完全な交点Calabi-Yau(CICY)3倍を計算する。
このアーキテクチャは、既存の結果に対する予測の精度を大幅に改善し、トレーニング用のデータのわずか30%で、すでに97%の精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a neural network inspired by Google's Inception model to compute
the Hodge number $h^{1,1}$ of complete intersection Calabi-Yau (CICY) 3-folds.
This architecture improves largely the accuracy of the predictions over
existing results, giving already 97% of accuracy with just 30% of the data for
training. Moreover, accuracy climbs to 99% when using 80% of the data for
training. This proves that neural networks are a valuable resource to study
geometric aspects in both pure mathematics and string theory.
- Abstract(参考訳): 我々は,googleのインセプションモデルに触発されたニューラルネットワークを導入し,完全交叉カラビヤウ(cicy)3次元多様体のホッジ数$h^{1,1}$を計算する。
このアーキテクチャは、既存の結果に対する予測の精度を大幅に改善し、トレーニング用のデータのわずか30%で、すでに97%の精度を実現している。
さらに、トレーニングに80%のデータを使用する場合、精度は99%まで上昇する。
このことは、ニューラルネットワークが純粋数学と弦理論の両方の幾何学的側面を研究するための貴重な資源であることを証明している。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - FR-NAS: Forward-and-Reverse Graph Predictor for Efficient Neural Architecture Search [10.699485270006601]
ニューラルネットワーク探索のための新しいグラフニューラルネットワーク(GNN)予測器を提案する。
この予測器は、従来のグラフビューと逆グラフビューを組み合わせることで、ニューラルネットワークをベクトル表現に変換する。
実験の結果, 予測精度は3%~16%向上し, 予測精度は有意に向上した。
論文 参考訳(メタデータ) (2024-04-24T03:22:49Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Deep multi-task mining Calabi-Yau four-folds [6.805575417034372]
射影空間の積の完全交叉として構築されたカラビ・ヤウ四次元多様体のデータセットを考える。
30%(80%)のトレーニング比率で、100%の精度で$h(1,1)$、97%の精度で$h(2,1)$に達する。
論文 参考訳(メタデータ) (2021-08-04T18:00:15Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - ResPerfNet: Deep Residual Learning for Regressional Performance Modeling
of Deep Neural Networks [0.16311150636417257]
本稿では,ディープラーニングに基づくResPerfNetを提案する。この手法は,ニューラルネットワークの性能を予測するために,対象プラットフォーム上で得られた代表データセットを用いて残差ニューラルネットワークをトレーニングする。
実験の結果,ResPerfNetは個々のニューラルネットワーク層と,さまざまなプラットフォーム上でのフルネットワークモデルの実行時間を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:02:42Z) - Machine learning for complete intersection Calabi-Yau manifolds: a
methodological study [0.0]
我々は機械学習(ML)を用いてホッジ数$h1,1$と$h2,1$の完全なカラビ・ヤウ交差点を予測する問題を再考する。
我々は、古いデータセットのインセプションモデルにインスパイアされたニューラルネットワークを使用して、トレーニング用のデータの30% (resp. 70%) のみを使用して、97% (resp. 99%) の精度で$h1,1$を得る。
新しい例では、単純な線形回帰は、トレーニング用のデータの30%でほぼ100%の正確性をもたらす。
論文 参考訳(メタデータ) (2020-07-30T19:43:49Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Predicting Neural Network Accuracy from Weights [25.73213712719546]
トレーニングされたニューラルネットワークの精度は、その重みだけを見て驚くほど正確に予測できることを実験的に示す。
この分野のさらなる研究を促進するために、4つの異なるデータセットでトレーニングされた120kの畳み込みニューラルネットワークのコレクションをリリースする。
論文 参考訳(メタデータ) (2020-02-26T13:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。