論文の概要: Towards a theory of quantum gravity from neural networks
- arxiv url: http://arxiv.org/abs/2111.00903v1
- Date: Thu, 28 Oct 2021 12:39:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 18:00:56.646366
- Title: Towards a theory of quantum gravity from neural networks
- Title(参考訳): ニューラルネットワークによる量子重力の理論に向けて
- Authors: Vitaly Vanchurin
- Abstract要約: トレーニング可能な変数の非平衡力学はマドルング方程式によって記述できることを示す。
ローレンツ対称性と湾曲時空は、学習によるエントロピー生成とエントロピー破壊の間の相互作用から生じる可能性があると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network is a dynamical system described by two different types of
degrees of freedom: fast-changing non-trainable variables (e.g. state of
neurons) and slow-changing trainable variables (e.g. weights and biases). We
show that the non-equilibrium dynamics of trainable variables can be described
by the Madelung equations, if the number of neurons is fixed, and by the
Schrodinger equation, if the learning system is capable of adjusting its own
parameters such as the number of neurons, step size and mini-batch size. We
argue that the Lorentz symmetries and curved space-time can emerge from the
interplay between stochastic entropy production and entropy destruction due to
learning. We show that the non-equilibrium dynamics of non-trainable variables
can be described by the geodesic equation (in the emergent space-time) for
localized states of neurons, and by the Einstein equations (with cosmological
constant) for the entire network. We conclude that the quantum description of
trainable variables and the gravitational description of non-trainable
variables are dual in the sense that they provide alternative macroscopic
descriptions of the same learning system, defined microscopically as a neural
network.
- Abstract(参考訳): ニューラルネットワークは、学習不能な変数(ニューロンの状態など)と、学習可能な変数(重みやバイアスなど)の2つの異なる自由度によって記述される力学系である。
学習可能な変数の非平衡ダイナミクスは,ニューロン数が固定されている場合,およびシュロディンガー方程式により,学習系がニューロン数,ステップサイズ,ミニバッチサイズなどのパラメータを調節できる場合,マデルング方程式によって記述できる。
ローレンツ対称性と湾曲時空は、確率的エントロピー生成と学習によるエントロピー破壊の間の相互作用から生じると我々は主張する。
学習不能変数の非平衡力学は、ニューロンの局所状態に対する測地線方程式(創発時空)と、ネットワーク全体に対するアインシュタイン方程式(宇宙定数を持つ)によって記述できることを示す。
学習可能変数の量子的記述と非学習可能変数の重力的記述は、ニューラルネットワークとして微視的に定義される同じ学習システムの別のマクロ的記述を提供するという意味で双対である。
関連論文リスト
- Emergent field theories from neural networks [0.0]
位置変数と運動量変数に対するハミルトン・ヤコビ方程式は、非学習変数の活性化ダイナミクスを管理する方程式に対応していることを示す。
この双対性は、ニューラルネットワークの活性化と学習力学を用いて、様々な場の理論をモデル化するために応用される。
論文 参考訳(メタデータ) (2024-11-12T19:30:18Z) - Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Dataset-learning duality and emergent criticality [0.0]
訓練不能変数の部分空間と訓練可能変数の部分空間との間の双対写像を示す。
双対性を用いて臨界性の出現、あるいはトレーニング可能な変数のゆらぎのパワー-法則分布を研究する。
論文 参考訳(メタデータ) (2024-05-27T17:44:33Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Machine learning of hidden variables in multiscale fluid simulation [77.34726150561087]
流体力学方程式を解くには、しばしばミクロ物理学の欠如を考慮に入れた閉包関係を用いる必要がある。
本研究では, 終端微分可能な偏微分方程式シミュレータを用いて, 偏微分ニューラルネットワークを訓練する。
本手法により, 非線形, 大型クヌーズン数プラズマ物理を再現する方程式に基づく手法が可能であることを示す。
論文 参考訳(メタデータ) (2023-06-19T06:02:53Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Parametrized constant-depth quantum neuron [56.51261027148046]
本稿では,カーネルマシンをベースとした量子ニューロン構築フレームワークを提案する。
ここでは、指数的に大きい空間にテンソル積特徴写像を適用するニューロンについて述べる。
パラメトリゼーションにより、提案されたニューロンは、既存のニューロンが適合できない基礎となるパターンを最適に適合させることができることが判明した。
論文 参考訳(メタデータ) (2022-02-25T04:57:41Z) - Self-organized criticality in neural networks [0.0]
本稿では,ニューラルネットワークの学習ダイナミクスが,自己組織的臨界状態に対して汎用的に惹きつけられていることを示す。
私たちの結果は、宇宙はニューラルネットワークかもしれないという主張を支持します。
論文 参考訳(メタデータ) (2021-07-07T18:00:03Z) - Emergent Quantumness in Neural Networks [0.0]
隠れ変数の化学ポテンシャルによって決定される「プランク定数」でSchr"odinger方程式を導出する。
また,機械学習や基礎物理学,進化生物学における研究結果の意義についても考察した。
論文 参考訳(メタデータ) (2020-12-09T14:32:33Z) - The world as a neural network [0.0]
我々は、宇宙が最も基本的なレベルでニューラルネットワークである可能性について議論する。
我々は「訓練可能な」変数と「隠された」変数の2種類の動的自由度を識別する。
そのような系におけるエントロピー生成は、オンサーガー・ヒルベルト項の対称性の局所函数であると主張する。
論文 参考訳(メタデータ) (2020-08-04T17:10:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。