論文の概要: Explore and Exploit with Heterotic Line Bundle Models
- arxiv url: http://arxiv.org/abs/2003.04817v1
- Date: Tue, 10 Mar 2020 15:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:47:13.195791
- Title: Explore and Exploit with Heterotic Line Bundle Models
- Title(参考訳): ヘテロティックラインバンドルモデルによる探索と爆発
- Authors: Magdalena Larfors and Robin Schneider
- Abstract要約: 線形バンドル和から構築されたヘテロティックな$SU(5)$ GUTモデルのクラスを探索するために、深層強化学習を用いる。
我々は、A3Cエージェントがそのようなモデルを探すために訓練された実験をいくつか実施する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use deep reinforcement learning to explore a class of heterotic $SU(5)$
GUT models constructed from line bundle sums over Complete Intersection Calabi
Yau (CICY) manifolds. We perform several experiments where A3C agents are
trained to search for such models. These agents significantly outperform random
exploration, in the most favourable settings by a factor of 1700 when it comes
to finding unique models. Furthermore, we find evidence that the trained agents
also outperform random walkers on new manifolds. We conclude that the agents
detect hidden structures in the compactification data, which is partly of
general nature. The experiments scale well with $h^{(1,1)}$, and may thus
provide the key to model building on CICYs with large $h^{(1,1)}$.
- Abstract(参考訳): 我々は、完全区間カラビヤウ(CICY)多様体上のラインバンドル和から構築されたヘテロティック $SU(5)$ GUT モデルのクラスを、深層強化学習を用いて探索する。
我々は,a3cエージェントがモデル探索を訓練する実験を複数実施する。
これらのエージェントはランダムな探索よりも優れており、ユニークなモデルを見つける上で最も好ましい設定は1700倍である。
さらに、訓練されたエージェントが新しい多様体上のランダムウォーカーよりも優れているという証拠も発見する。
エージェントは圧縮データ中に隠れた構造を検知し,その一部が一般の性質であることがわかった。
実験は$h^{(1,1)}$でうまくスケールし、大きな$h^{(1,1)}$でCICY上でのモデル構築の鍵を提供するかもしれない。
関連論文リスト
- Machine Learning on generalized Complete Intersection Calabi-Yau
Manifolds [16.923362862181445]
一般化完備断面カラビ・ヤウ多様体(英語版)(gCICY)はカラビ・ヤウ多様体の新たな構成である。
本稿では,ニューラルネットワークを用いて,この方向を推し進める。
論文 参考訳(メタデータ) (2022-09-21T07:30:07Z) - Sequential Bayesian Neural Subnetwork Ensembles [3.954301343416333]
本稿では,疎性誘導前処理によるモデル複雑性を低減する動的ベイズニューラルワークのシーケンシャルアンサンブルを提案する。
実験により,提案手法が高次頻度およびベイズアンサンブルモデルのベースラインを超えることを示す。
論文 参考訳(メタデータ) (2022-06-01T22:57:52Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Residual Overfit Method of Exploration [78.07532520582313]
提案手法は,2点推定値の調整と1点オーバーフィットに基づく近似探索手法を提案する。
このアプローチは、調整されたモデルと比較して、オーバーフィットモデルが最も過度な適合を示すアクションへの探索を促進する。
ROMEを3つのデータセット上の確立されたコンテキスト的帯域幅法と比較し、最も優れたパフォーマンスの1つとみなす。
論文 参考訳(メタデータ) (2021-10-06T17:05:33Z) - Heterotic String Model Building with Monad Bundles and Reinforcement
Learning [0.0]
モナド束を持つカラビ・ヤウ3次元多様体上の異方性SO GUTモデルについて検討した。
モナド束の探索には強化学習が有効であることを示す。
論文 参考訳(メタデータ) (2021-08-16T19:04:19Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - Interpretable discovery of new semiconductors with machine learning [10.09604500193621]
DARWIN(Deep Adaptive Regressive Weighted Intelligent Network)という実験バンドギャップに対してベンチマークされたハイブリッド機能的DFTデータに基づいて訓練されたマシンラーニングサロゲートモデルを用いた進化的アルゴリズムによる探索を報告する。
この戦略は、対象特性を持つ候補に対して、10$8$3aryと10$11$4ternaries$7$の材料空間の効率的な探索を可能にする。
論文 参考訳(メタデータ) (2021-01-12T10:23:16Z) - Leveraging Passage Retrieval with Generative Models for Open Domain
Question Answering [61.394478670089065]
オープンドメインの質問に答えるための生成モデルは、外部の知識に頼らずに競争力があることが証明されている。
我々は、これらのモデルがテキストの文節を検索することでどれだけの恩恵を受けられるかを調査し、潜在的に証拠を含む可能性がある。
検索したパス数を増やすと,本手法の性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-02T17:44:57Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。