論文の概要: Heterotic String Model Building with Monad Bundles and Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2108.07316v1
- Date: Mon, 16 Aug 2021 19:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:08:35.239571
- Title: Heterotic String Model Building with Monad Bundles and Reinforcement
Learning
- Title(参考訳): モナドバンドルと強化学習を用いたヘテロティック弦モデルの構築
- Authors: Andrei Constantin, Thomas R. Harvey, Andre Lukas
- Abstract要約: モナド束を持つカラビ・ヤウ3次元多様体上の異方性SO GUTモデルについて検討した。
モナド束の探索には強化学習が有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use reinforcement learning as a means of constructing string
compactifications with prescribed properties. Specifically, we study heterotic
SO(10) GUT models on Calabi-Yau three-folds with monad bundles, in search of
phenomenologically promising examples. Due to the vast number of bundles and
the sparseness of viable choices, methods based on systematic scanning are not
suitable for this class of models. By focusing on two specific manifolds with
Picard numbers two and three, we show that reinforcement learning can be used
successfully to explore monad bundles. Training can be accomplished with
minimal computing resources and leads to highly efficient policy networks. They
produce phenomenologically promising states for nearly 100% of episodes and
within a small number of steps. In this way, hundreds of new candidate standard
models are found.
- Abstract(参考訳): 文字列圧縮を所定の特性で構築する手段として強化学習を用いる。
具体的には,モナド束をもつカラビ・ヤウ3次元多様体上の異種SO(10) GUTモデルについて,現象学的に有望な例を探索する。
膨大な数のバンドルと実行可能な選択のスパース性のため、体系的なスキャンに基づく手法はこのモデルのクラスには適さない。
ピカール数 2 と 3 を持つ2つの特定の多様体に焦点を合わせることにより、強化学習がモナド束の探索に成功できることが示される。
トレーニングは最小限のコンピューティングリソースで達成でき、非常に効率的なポリシーネットワークにつながる。
約100%のエピソードと少数のステップで、現象学的に有望な状態を生成する。
このようにして、何百もの新しい候補標準モデルが見つかる。
関連論文リスト
- HM3: Heterogeneous Multi-Class Model Merging [0.0]
本研究では,補助ガードレールモデルを単一多機能モデルに統合するためのトレーニングフリーモデルマージ手法について検討する。
異種ラベル空間とマルチクラス分類器をマージする簡単な手法として、異種多クラスモデルマージ(HM3)を提案する。
BERTをベースとしたガードモデルをマージする有望な結果が報告され、その一部はソースモデルよりも平均F1スコア高くなり、推論時間を最大44%削減する。
論文 参考訳(メタデータ) (2024-09-27T22:42:45Z) - Dynamic Online Ensembles of Basis Expansions [0.0]
動的モデルのスケーラブルでオンラインなアンサンブルを実現するために,ランダムな特徴近似を用いる方法を示す。
静的モデルと動的モデルを融合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T15:09:59Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Deep Learning Hamiltonian Monte Carlo [0.6554326244334867]
私たちは、ハミルトンモンテカルロアルゴリズムをニューラルネットワークレイヤーのスタックで一般化します。
私たちのモデルは、異なるトポロジのモード間でうまく混在できることを示します。
論文 参考訳(メタデータ) (2021-05-07T17:50:18Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - A Multi-Semantic Metapath Model for Large Scale Heterogeneous Network
Representation Learning [52.83948119677194]
大規模不均一表現学習のためのマルチセマンティックメタパス(MSM)モデルを提案する。
具体的には,マルチセマンティックなメタパスに基づくランダムウォークを生成し,不均衡な分布を扱うヘテロジニアスな近傍を構築する。
提案するフレームワークに対して,AmazonとAlibabaの2つの挑戦的なデータセットに対して,体系的な評価を行う。
論文 参考訳(メタデータ) (2020-07-19T22:50:20Z) - Machine Learning String Standard Models [0.0]
教師なしと教師なしの学習が検討されています
固定コンパクト化多様体の場合、比較的小さなニューラルネットワークは正しいゲージ群と一貫した線束モデルを区別することができる。
非トポロジ的特性、特にヒッグス多重数の学習は、より困難であることが判明したが、ネットワークのサイズと特徴強化されたデータセットを使用することで可能である。
論文 参考訳(メタデータ) (2020-03-30T11:14:14Z) - Explore and Exploit with Heterotic Line Bundle Models [0.0]
線形バンドル和から構築されたヘテロティックな$SU(5)$ GUTモデルのクラスを探索するために、深層強化学習を用いる。
我々は、A3Cエージェントがそのようなモデルを探すために訓練された実験をいくつか実施する。
論文 参考訳(メタデータ) (2020-03-10T15:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。