論文の概要: Explore and Exploit with Heterotic Line Bundle Models
- arxiv url: http://arxiv.org/abs/2003.04817v1
- Date: Tue, 10 Mar 2020 15:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:47:13.195791
- Title: Explore and Exploit with Heterotic Line Bundle Models
- Title(参考訳): ヘテロティックラインバンドルモデルによる探索と爆発
- Authors: Magdalena Larfors and Robin Schneider
- Abstract要約: 線形バンドル和から構築されたヘテロティックな$SU(5)$ GUTモデルのクラスを探索するために、深層強化学習を用いる。
我々は、A3Cエージェントがそのようなモデルを探すために訓練された実験をいくつか実施する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use deep reinforcement learning to explore a class of heterotic $SU(5)$
GUT models constructed from line bundle sums over Complete Intersection Calabi
Yau (CICY) manifolds. We perform several experiments where A3C agents are
trained to search for such models. These agents significantly outperform random
exploration, in the most favourable settings by a factor of 1700 when it comes
to finding unique models. Furthermore, we find evidence that the trained agents
also outperform random walkers on new manifolds. We conclude that the agents
detect hidden structures in the compactification data, which is partly of
general nature. The experiments scale well with $h^{(1,1)}$, and may thus
provide the key to model building on CICYs with large $h^{(1,1)}$.
- Abstract(参考訳): 我々は、完全区間カラビヤウ(CICY)多様体上のラインバンドル和から構築されたヘテロティック $SU(5)$ GUT モデルのクラスを、深層強化学習を用いて探索する。
我々は,a3cエージェントがモデル探索を訓練する実験を複数実施する。
これらのエージェントはランダムな探索よりも優れており、ユニークなモデルを見つける上で最も好ましい設定は1700倍である。
さらに、訓練されたエージェントが新しい多様体上のランダムウォーカーよりも優れているという証拠も発見する。
エージェントは圧縮データ中に隠れた構造を検知し,その一部が一般の性質であることがわかった。
実験は$h^{(1,1)}$でうまくスケールし、大きな$h^{(1,1)}$でCICY上でのモデル構築の鍵を提供するかもしれない。
関連論文リスト
- AstroM$^3$: A self-supervised multimodal model for astronomy [0.0]
本稿では,モデルが複数のモーダルから同時に学習できる自己教師型事前学習手法AstroM$3$を提案する。
具体的には、CLIP(Contrastive Language- Image Pretraining)モデルをトリモーダル設定に拡張し、時系列測光データ、スペクトル、天体物理メタデータの統合を可能にする。
以上の結果から,CLIP事前学習により時系列光度測定の分類性能が向上し,精度が84.6%から91.5%に向上した。
論文 参考訳(メタデータ) (2024-11-13T18:20:29Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - Machine Learning on generalized Complete Intersection Calabi-Yau
Manifolds [16.923362862181445]
一般化完備断面カラビ・ヤウ多様体(英語版)(gCICY)はカラビ・ヤウ多様体の新たな構成である。
本稿では,ニューラルネットワークを用いて,この方向を推し進める。
論文 参考訳(メタデータ) (2022-09-21T07:30:07Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Residual Overfit Method of Exploration [78.07532520582313]
提案手法は,2点推定値の調整と1点オーバーフィットに基づく近似探索手法を提案する。
このアプローチは、調整されたモデルと比較して、オーバーフィットモデルが最も過度な適合を示すアクションへの探索を促進する。
ROMEを3つのデータセット上の確立されたコンテキスト的帯域幅法と比較し、最も優れたパフォーマンスの1つとみなす。
論文 参考訳(メタデータ) (2021-10-06T17:05:33Z) - Heterotic String Model Building with Monad Bundles and Reinforcement
Learning [0.0]
モナド束を持つカラビ・ヤウ3次元多様体上の異方性SO GUTモデルについて検討した。
モナド束の探索には強化学習が有効であることを示す。
論文 参考訳(メタデータ) (2021-08-16T19:04:19Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - Leveraging Passage Retrieval with Generative Models for Open Domain
Question Answering [61.394478670089065]
オープンドメインの質問に答えるための生成モデルは、外部の知識に頼らずに競争力があることが証明されている。
我々は、これらのモデルがテキストの文節を検索することでどれだけの恩恵を受けられるかを調査し、潜在的に証拠を含む可能性がある。
検索したパス数を増やすと,本手法の性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-02T17:44:57Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。