論文の概要: Deep multi-task mining Calabi-Yau four-folds
- arxiv url: http://arxiv.org/abs/2108.02221v1
- Date: Wed, 4 Aug 2021 18:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:29:30.400969
- Title: Deep multi-task mining Calabi-Yau four-folds
- Title(参考訳): 深部マルチタスクマイニングcalabi-yaau 4-folds
- Authors: Harold Erbin, Riccardo Finotello, Robin Schneider and Mohamed
Tamaazousti
- Abstract要約: 射影空間の積の完全交叉として構築されたカラビ・ヤウ四次元多様体のデータセットを考える。
30%(80%)のトレーニング比率で、100%の精度で$h(1,1)$、97%の精度で$h(2,1)$に達する。
- 参考スコア(独自算出の注目度): 6.805575417034372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We continue earlier efforts in computing the dimensions of tangent space
cohomologies of Calabi-Yau manifolds using deep learning. In this paper, we
consider the dataset of all Calabi-Yau four-folds constructed as complete
intersections in products of projective spaces. Employing neural networks
inspired by state-of-the-art computer vision architectures, we improve earlier
benchmarks and demonstrate that all four non-trivial Hodge numbers can be
learned at the same time using a multi-task architecture. With 30% (80%)
training ratio, we reach an accuracy of 100% for $h^{(1,1)}$ and 97% for
$h^{(2,1)}$ (100% for both), 81% (96%) for $h^{(3,1)}$, and 49% (83%) for
$h^{(2,2)}$. Assuming that the Euler number is known, as it is easy to compute,
and taking into account the linear constraint arising from index computations,
we get 100% total accuracy.
- Abstract(参考訳): 我々は、深層学習を用いてカラビ・ヤウ多様体の接空間コホモロジーの次元を計算するための初期の努力を継続する。
本稿では、射影空間の積の完全交叉として構築されたすべてのカラビ・ヤウ四次元多様体のデータセットを考える。
最先端のコンピュータビジョンアーキテクチャにインスパイアされたニューラルネットワークを用いることで、初期のベンチマークを改善し、全ての4つの非自明なホッジ数値を同時にマルチタスクアーキテクチャを使って学習できることを実証する。
30%(80%)のトレーニング率で、$h^{(1,1)}$で100%、$h^{(2,1)}$ (100%)で97%、$h^{(3,1)}$で81%(96%)、$h^{(2,2)}$で49%(83%)の精度に達する。
オイラー数は計算が容易であり、指数計算から生じる線形制約を考慮に入れると100%の精度が得られる。
関連論文リスト
- Fast computation of 2-isogenies in dimension 4 and cryptographic applications [0.0]
次元 $ggeq 1$ のアーベル多様体とレベル $n=2$ のtheta-coordinates の間の 2$-isogenies の連鎖を計算するアルゴリズムを提案する。
開始曲線の自己準同型環が、ラップトップ上で数秒以内に未知である場合には、SIDHに対して完全なキーリカバリ攻撃を実行することができる。
論文 参考訳(メタデータ) (2024-07-22T09:19:20Z) - Constructing and Machine Learning Calabi-Yau Five-folds [0.0]
コホモロジーデータに基づいて、教師付き機械学習を行う。
四つ以下の複素射影空間の積において、すべての可能な完備交叉カラビ・ヤウ多様体を構成する。
h1,1$は非常に効率的に学習でき、R2$スコアは非常に高く、精度は96%である。
論文 参考訳(メタデータ) (2023-10-24T16:07:08Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - Identifying good directions to escape the NTK regime and efficiently
learn low-degree plus sparse polynomials [52.11466135206223]
広帯域2層ニューラルネットワークはターゲット関数に適合するためにTangent Kernel(NTK)とQuadNTKを併用可能であることを示す。
これにより、終端収束が得られ、NTKとQuadNTKの双方に対して証明可能なサンプル改善が保証される。
論文 参考訳(メタデータ) (2022-06-08T06:06:51Z) - Efficient and Generic 1D Dilated Convolution Layer for Deep Learning [52.899995651639436]
幅広いパラメータをカバーする汎用的な1D畳み込み層の効率的な実装を紹介します。
特にIntel AVX-512とAVX-512 BFloat16命令を含むアーキテクチャ向けに最適化されている。
本稿では,最適化された1次元畳み込み層の性能を,実際のゲノミクスデータセットを用いたエンドツーエンドニューラルネットワークトレーニングで実証する。
論文 参考訳(メタデータ) (2021-04-16T09:54:30Z) - Involution: Inverting the Inherence of Convolution for Visual
Recognition [72.88582255910835]
本稿では,畳み込みの原理を逆転させることにより,深層ニューラルネットワークの新たな原子操作を提案する。
提案する畳み込み演算子は、視覚認識のための新しい世代のニューラルネットワークを構築するための基本ブロックとして利用することができる。
当社のInvolutionベースのモデルは、ResNet-50を使用した畳み込みベースラインのパフォーマンスを最大1.6%の精度、2.5%と2.4%のバウンディングボックスAP、4.7%は絶対にIoUを意味します。
論文 参考訳(メタデータ) (2021-03-10T18:40:46Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Machine Learning Calabi-Yau Four-folds [0.0]
ホッジ数は基礎となる多様体データに非自明に依存する。
ホッジ数h1,1およびh3,1のカラビ・ヤウ 4次元多様体に対する教師付き学習について検討した。
論文 参考訳(メタデータ) (2020-09-05T14:54:25Z) - Machine learning for complete intersection Calabi-Yau manifolds: a
methodological study [0.0]
我々は機械学習(ML)を用いてホッジ数$h1,1$と$h2,1$の完全なカラビ・ヤウ交差点を予測する問題を再考する。
我々は、古いデータセットのインセプションモデルにインスパイアされたニューラルネットワークを使用して、トレーニング用のデータの30% (resp. 70%) のみを使用して、97% (resp. 99%) の精度で$h1,1$を得る。
新しい例では、単純な線形回帰は、トレーニング用のデータの30%でほぼ100%の正確性をもたらす。
論文 参考訳(メタデータ) (2020-07-30T19:43:49Z) - Inception Neural Network for Complete Intersection Calabi-Yau 3-folds [0.0]
我々は、GoogleのInceptionモデルにインスパイアされたニューラルネットワークを導入し、Hodgeの$h1,1$の完全な交点Calabi-Yau(CICY)3倍を計算する。
このアーキテクチャは、既存の結果に対する予測の精度を大幅に改善し、トレーニング用のデータのわずか30%で、すでに97%の精度を実現している。
論文 参考訳(メタデータ) (2020-07-27T08:56:19Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。