論文の概要: Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures
- arxiv url: http://arxiv.org/abs/2405.17406v3
- Date: Mon, 16 Dec 2024 06:44:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:48:49.593537
- Title: Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures
- Title(参考訳): ハイブリッドおよびリカレントニューラルネットワークアーキテクチャを用いたDeep Learning Calabi-Yau 4つのフォールド
- Authors: H. L. Dao,
- Abstract要約: 本稿では,ハイブリッド畳み込み再帰型ニューラルネットワークアーキテクチャに基づくディープラーニングを,h1,1,h2,1,h3,1,h2,2$のデータセットに適用する。
CNN-LSTM-400は、LSTMの隠蔽サイズ400のハイブリッドCNN-LSTMである。
72%のトレーニング比と比較して、精度は99.85%、98.66%、96.26%、84.77%に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this work, we report the results of applying deep learning based on hybrid convolutional-recurrent and purely recurrent neural network architectures to the dataset of almost one million complete intersection Calabi-Yau four-folds (CICY4) to machine-learn their four Hodge numbers $h^{1,1}, h^{2,1}, h^{3,1}, h^{2,2}$. In particular, we explored and experimented with twelve different neural network models, nine of which are convolutional-recurrent (CNN-RNN) hybrids with the RNN unit being either GRU (Gated Recurrent Unit) or Long Short Term Memory (LSTM). The remaining four models are purely recurrent neural networks based on LSTM. In terms of the $h^{1,1}, h^{2,1}, h^{3,1}, h^{2,2}$ prediction accuracies, at 72% training ratio, our best performing individual model is CNN-LSTM-400, a hybrid CNN-LSTM with the LSTM hidden size of 400, which obtained 99.74%, 98.07%, 95.19%, 81.01%, our second best performing individual model is LSTM-448, an LSTM-based model with the hidden size of 448, which obtained 99.74%, 97.51%, 94.24%, and 78.63%. These results were improved by forming ensembles of the top two, three or even four models. Our best ensemble, consisting of the top four models, achieved the accuracies of 99.84%, 98.71%, 96.26%, 85.03%. At 80% training ratio, the top two performing models LSTM-448 and LSTM-424 are both LSTM-based with the hidden sizes of 448 and 424. Compared with the 72% training ratio, there is a significant improvement of accuracies, which reached 99.85%, 98.66%, 96.26%, 84.77% for the best individual model and 99.90%, 99.03%, 97.97%, 87.34% for the best ensemble. By nature a proof of concept, the results of this work conclusively established the utility of RNN-based architectures and demonstrated their effective performances compared to the well-explored purely CNN-based architectures in the problem of deep learning Calabi Yau manifolds.
- Abstract(参考訳): 本研究では,ハイブリッド畳み込みと純粋に反復するニューラルネットワークアーキテクチャに基づくディープラーニングを,約100万の完全交点(CICY4)のデータセットに適用して,ホッジ数$h^{1,1},h^{2,1},h^{3,1},h^{2,2}$のマシン学習を行った。
特に,12種類のニューラルネットワークモデルを探索,実験した。そのうち9つは畳み込みリカレント(CNN-RNN)ハイブリッドであり,RNNユニットはGRU(Gated Recurrent Unit)またはLong Short Term Memory(LSTM)である。
残りの4つのモデルはLSTMに基づく純粋にリカレントなニューラルネットワークである。
h^{1,1}, h^{2,1}, h^{3,1}, h^{2,2}$ 予測精度 72% のトレーニング比で、我々の最高の個別モデルは CNN-LSTM-400, LSTM隠蔽サイズ 400 のハイブリッド CNN-LSTM, 99.74%, 98.07%, 95.19%, 81.01%, LSTM-448, 隠蔽サイズ 448, 99.74%, 97.51%, 94.24%, 78.63% である。
これらの結果はトップ2、3または4モデルのアンサンブルを形成することで改善された。
ベストアンサンブルは上位4モデルで構成され、99.84%、98.71%、96.26%、85.03%の精度を達成した。
80%のトレーニング比率で、LSTM-448とLSTM-424の上位2つはLSTMベースであり、隠されたサイズは448と424である。
72%のトレーニング比と比較して、精度は99.85%、98.66%、96.26%、84.77%、99.90%、99.03%、97.97%、87.34%に達した。
本研究の結果は本質的に概念実証であり, カラビヤウ多様体の深層学習問題において, RNN に基づくアーキテクチャの有用性を確定的に確立し, その実効性を示した。
関連論文リスト
- Kimi k1.5: Scaling Reinforcement Learning with LLMs [84.2229964736678]
我々は、強化学習で訓練された最新のマルチモーダル言語モデル、Kimi k1.5の訓練実践について報告する。
長いコンテキストスケーリングと改善されたポリシー最適化手法が、我々のアプローチの鍵となる要素である。
本システムは,複数のベンチマークやモダリティに対して,最先端の推論性能を実現する。
論文 参考訳(メタデータ) (2025-01-22T02:48:14Z) - A Comparative Analysis of CNN-based Deep Learning Models for Landslide Detection [0.0]
インド北部とネパールの地すべりは大きな破壊をもたらし、インフラを損傷し、地域社会に脅威を与えている。
近年のインド北部とネパールの地すべりは、大きな破壊を招き、インフラを損傷し、地域社会に脅威を与えている。
ディープラーニング技術の一種であるCNNは、画像処理において顕著な成功を収めている。
論文 参考訳(メタデータ) (2024-08-03T07:20:10Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - A model for multi-attack classification to improve intrusion detection
performance using deep learning approaches [0.0]
ここでの目的は、悪意のある攻撃を識別するための信頼性の高い侵入検知メカニズムを作ることである。
ディープラーニングベースのソリューションフレームワークは、3つのアプローチから成り立っている。
最初のアプローチは、adamax、SGD、adagrad、adam、RMSprop、nadam、adadeltaといった7つの機能を持つLong-Short Term Memory Recurrent Neural Network (LSTM-RNN)である。
モデルは特徴を自己学習し、攻撃クラスをマルチアタック分類として分類する。
論文 参考訳(メタデータ) (2023-10-25T05:38:44Z) - Short-Term Aggregated Residential Load Forecasting using BiLSTM and
CNN-BiLSTM [0.3499870393443268]
短期的な住宅負荷予測が注目の的となっている。
最近、この問題に対処するためにディープニューラルネットワークが活用されている。
本稿では、双方向長短期メモリ(BiLSTM)と畳み込みニューラルネットワークに基づくBiLSTMの機能について検討する。
論文 参考訳(メタデータ) (2023-02-10T03:11:02Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Use of 1D-CNN for input data size reduction of LSTM in Hourly
Rainfall-Runoff modeling [0.0]
CNNsLSTMは石狩川流域で1時間ごとの降雨・流出モデルとして実装された。
CNNsLSTMの結果は、1D-CNNとLSTMを時差入力のみ(LSTMwHour)、1D-CNNとLSTMの並列アーキテクチャ(CNNpLSTM)、日毎および時差入力データ(LSTMwDpH)を用いたLSTMアーキテクチャと比較した。
論文 参考訳(メタデータ) (2021-11-07T23:46:06Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Improving Deep Learning for HAR with shallow LSTMs [70.94062293989832]
本稿では,DeepConvLSTMを2層LSTMではなく1層LSTMに変更することを提案する。
この結果は、シーケンシャルデータを扱う場合、少なくとも2層LSTMが必要であるという信念とは対照的である。
論文 参考訳(メタデータ) (2021-08-02T08:14:59Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Towards Extremely Compact RNNs for Video Recognition with Fully
Decomposed Hierarchical Tucker Structure [41.41516453160845]
完全に分解された階層型タッカー(FDHT)構造を持つ非常にコンパクトなRNNモデルを提案する。
複数のポピュラービデオ認識データセットを用いた実験結果から,完全分解型階層型タッカー型lstmは極めてコンパクトかつ高効率であることがわかった。
論文 参考訳(メタデータ) (2021-04-12T18:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。