論文の概要: Neural Network Learning and Quantum Gravity
- arxiv url: http://arxiv.org/abs/2403.03245v1
- Date: Tue, 5 Mar 2024 19:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:02:54.223391
- Title: Neural Network Learning and Quantum Gravity
- Title(参考訳): ニューラルネットワーク学習と量子重力
- Authors: Stefano Lanza
- Abstract要約: この研究の目的は、ニューラルネットワークベースの学習によって文字列のランドスケープがどの程度探索できるかを説明することである。
弦理論の低エネルギー有効理論には、ある統計的可学習性の性質が与えられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The landscape of low-energy effective field theories stemming from string
theory is too vast for a systematic exploration. However, the meadows of the
string landscape may be fertile ground for the application of machine learning
techniques. Employing neural network learning may allow for inferring novel,
undiscovered properties that consistent theories in the landscape should
possess, or checking conjectural statements about alleged characteristics
thereof. The aim of this work is to describe to what extent the string
landscape can be explored with neural network-based learning. Our analysis is
motivated by recent studies that show that the string landscape is
characterized by finiteness properties, emerging from its underlying tame,
o-minimal structures. Indeed, employing these results, we illustrate that any
low-energy effective theory of string theory is endowed with certain
statistical learnability properties. Consequently, several learning problems
therein formulated, including interpolations and multi-class classification
problems, can be concretely addressed with machine learning, delivering results
with sufficiently high accuracy.
- Abstract(参考訳): 弦理論から生じる低エネルギー有効場の理論の風景は、体系的な探索には大きすぎる。
しかし, ストリングランドスケープの牧草地は, 機械学習技術の適用の場として有益かもしれない。
ニューラルネットワーク学習を利用することで、ランドスケープにおける一貫した理論が持つべき新規で未発見な特性を推測したり、その特性を主張する弁明文を確認することが可能になる。
この研究の目的は、ニューラルネットワークベースの学習によって文字列のランドスケープがどの程度探索できるかを説明することである。
我々の分析は近年の研究では、弦の風景は、その基礎となるテーム、o-ミニマル構造から生じる有限性の性質によって特徴づけられることを示した。
実際、これらの結果を用いて、弦理論の低エネルギー有効理論には、ある統計的可学習性の性質が与えられていることを示す。
その結果、補間や多クラス分類問題を含むいくつかの学習問題は、機械学習で具体的に対処でき、十分な精度で結果を提供することができる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Tilting the Odds at the Lottery: the Interplay of Overparameterisation and Curricula in Neural Networks [8.324691721547202]
カリキュラム学習が深層学習にはほとんど役に立たないことを示す。
特に,XOR-like Gaussian Mixture 問題における2層ネットワークのオンライン学習環境における相互作用について検討する。
論文 参考訳(メタデータ) (2024-06-03T17:59:33Z) - Learnable Topological Features for Phylogenetic Inference via Graph
Neural Networks [7.310488568715925]
学習可能なトポロジカル特徴に基づく系統的推論のための新しい構造表現法を提案する。
ディリクレエネルギーを最小化する生のノード特徴を現代のグラフ表現学習技術と組み合わせることで、学習可能なトポロジカル特徴は系統樹の効率的な構造情報を提供することができる。
論文 参考訳(メタデータ) (2023-02-17T12:26:03Z) - A Theoretical Analysis on Feature Learning in Neural Networks: Emergence
from Inputs and Advantage over Fixed Features [18.321479102352875]
ニューラルネットワークの重要な特徴は、予測に有効な特徴を持つ入力データの表現を学ぶ能力である。
実践的なデータによって動機づけられた学習問題を考察し、そこでは、ラベルが一連のクラス関連パターンによって決定され、それらから入力が生成される。
勾配降下によって訓練されたニューラルネットワークがこれらの問題に成功できることを実証する。
論文 参考訳(メタデータ) (2022-06-03T17:49:38Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - An analytic theory of shallow networks dynamics for hinge loss
classification [14.323962459195771]
我々は、単純なタイプのニューラルネットワーク(分類タスクを実行するために訓練された単一の隠れ層)のトレーニングダイナミクスについて研究する。
我々はこの理論を線形分離可能なデータセットと線形ヒンジ損失のプロトタイプケースに特化する。
これにより、トレーニングダイナミクスの減速、リッチラーニングと遅延ラーニングのクロスオーバー、オーバーフィッティングといった、現代のネットワークに現れるいくつかの現象に対処することが可能になります。
論文 参考訳(メタデータ) (2020-06-19T16:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。