論文の概要: Machine Learning String Standard Models
- arxiv url: http://arxiv.org/abs/2003.13339v1
- Date: Mon, 30 Mar 2020 11:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:40:31.793315
- Title: Machine Learning String Standard Models
- Title(参考訳): 機械学習文字列標準モデル
- Authors: Rehan Deen, Yang-Hui He, Seung-Joo Lee, and Andre Lukas
- Abstract要約: 教師なしと教師なしの学習が検討されています
固定コンパクト化多様体の場合、比較的小さなニューラルネットワークは正しいゲージ群と一貫した線束モデルを区別することができる。
非トポロジ的特性、特にヒッグス多重数の学習は、より困難であることが判明したが、ネットワークのサイズと特徴強化されたデータセットを使用することで可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study machine learning of phenomenologically relevant properties of string
compactifications, which arise in the context of heterotic line bundle models.
Both supervised and unsupervised learning are considered. We find that, for a
fixed compactification manifold, relatively small neural networks are capable
of distinguishing consistent line bundle models with the correct gauge group
and the correct chiral asymmetry from random models without these properties.
The same distinction can also be achieved in the context of unsupervised
learning, using an auto-encoder. Learning non-topological properties,
specifically the number of Higgs multiplets, turns out to be more difficult,
but is possible using sizeable networks and feature-enhanced data sets.
- Abstract(参考訳): ヘテロティックライン束モデルの文脈で生じる弦圧縮の現象学的に関連した性質の機械学習について検討する。
教師なし学習と教師なし学習の両方が考慮される。
固定コンパクト化多様体の場合、比較的小さなニューラルネットワークは正しいゲージ群と正しいキラル非対称性を持つ一貫した直線束モデルをこれらの性質を持たないランダムモデルと区別することができる。
同じ区別は、オートエンコーダを使用して教師なし学習の文脈でも達成できる。
非トポロジ的性質、特にヒッグス多重数を学ぶことはより難しいが、サイズ可能なネットワークと特徴強化データセットを使用することで可能である。
関連論文リスト
- Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - The No Free Lunch Theorem, Kolmogorov Complexity, and the Role of Inductive Biases in Machine Learning [80.1018596899899]
ニューラルネットワークモデルは、Kolmogorov複雑性を使って形式化された、同じ好みを共有している、と我々は主張する。
実験の結果、事前訓練された言語モデルでも、低複雑さのシーケンスを生成するのが好まれることがわかった。
これらの観察は、ますます小さな機械学習モデルで異なるように見える問題を統一する深層学習の傾向を正当化する。
論文 参考訳(メタデータ) (2023-04-11T17:22:22Z) - Lorentz group equivariant autoencoders [6.858459233149096]
Lorentz group autoencoder (LGAE)
正規直交ローレンツ群 $mathrmSO+(2,1)$ に対して自己エンコーダモデル同型を開発する。
我々はLHCのジェット機のアーキテクチャと実験結果を示し、いくつかの圧縮、再構成、異常検出の指標に基づいて、グラフと畳み込みニューラルネットワークのベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-12-14T17:19:46Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Linear Connectivity Reveals Generalization Strategies [54.947772002394736]
微調整されたモデルのいくつかは、それらの間の線形経路における損失を増大させる大きな障壁を持つ。
テスト損失面上で線形に接続されているが、クラスタ外のモデルから切り離されている異なるモデルのクラスタが見つかる。
我々の研究は、損失面の幾何学がモデルを異なる関数へと導く方法を示している。
論文 参考訳(メタデータ) (2022-05-24T23:43:02Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Mutual Information Scaling for Tensor Network Machine Learning [0.0]
本稿では,テンソルネットワーク機械学習における相関解析の適用方法を示す。
古典的データが量子状態に類似した相関スケーリングパターンを持つかどうかを考察する。
我々は,MNISTデータセットとTiny Imagesデータセットのスケーリングパターンを特徴付け,後者における境界法スケーリングの明確な証拠を見出す。
論文 参考訳(メタデータ) (2021-02-27T02:17:51Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。