論文の概要: Emergent field theories from neural networks
- arxiv url: http://arxiv.org/abs/2411.08138v1
- Date: Tue, 12 Nov 2024 19:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:10:16.335879
- Title: Emergent field theories from neural networks
- Title(参考訳): ニューラルネットワークによる創発的場の理論
- Authors: Vitaly Vanchurin,
- Abstract要約: 位置変数と運動量変数に対するハミルトン・ヤコビ方程式は、非学習変数の活性化ダイナミクスを管理する方程式に対応していることを示す。
この双対性は、ニューラルネットワークの活性化と学習力学を用いて、様々な場の理論をモデル化するために応用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We establish a duality relation between Hamiltonian systems and neural network-based learning systems. We show that the Hamilton-Jacobi equations for position and momentum variables correspond to the equations governing the activation dynamics of non-trainable variables and the learning dynamics of trainable variables. The duality is then applied to model various field theories using the activation and learning dynamics of neural networks. For Klein-Gordon fields, the corresponding weight tensor is symmetric, while for Dirac fields, the weight tensor must contain an anti-symmetric tensor factor. The dynamical components of the weight and bias tensors correspond, respectively, to the temporal and spatial components of the gauge field.
- Abstract(参考訳): 我々は,ハミルトニアンシステムとニューラルネットワークに基づく学習システムとの双対関係を確立する。
位置変数と運動量変数に対するハミルトン・ヤコビ方程式は、非訓練変数の活性化力学と訓練変数の学習力学を規定する方程式に対応することを示す。
この双対性は、ニューラルネットワークの活性化と学習力学を用いて、様々な場の理論をモデル化するために応用される。
クライン=ゴルドン場の場合、対応する重みテンソルは対称であるが、ディラック場の場合、重みテンソルは反対称テンソル因子を含む必要がある。
重みと偏りテンソルの動的成分はそれぞれゲージ場の時間的成分と空間的成分に対応する。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Pseudo-Hamiltonian neural networks for learning partial differential
equations [0.0]
Pseudo-Hamiltonian Neural Network (PHNN)は、最近、通常の微分方程式でモデル化できる力学系を学ぶために導入された。
本稿では,この手法を偏微分方程式に拡張する。
得られたモデルは、保存、散逸、外部力を表す用語をモデル化する最大3つのニューラルネットワークと、学習または入力として与えられる個別の畳み込み演算子から構成される。
論文 参考訳(メタデータ) (2023-04-27T17:46:00Z) - Hamiltonian Neural Networks with Automatic Symmetry Detection [0.0]
ハミルトニアンニューラルネットワーク(HNN)は、以前の物理知識を組み込むために導入された。
我々は、ニューラルネットワークに対称性を検出し、埋め込むために、Lie代数フレームワークを用いてHNNを強化した。
論文 参考訳(メタデータ) (2023-01-19T07:34:57Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - A duality connecting neural network and cosmological dynamics [0.0]
本研究では、勾配降下によるニューラルネットワークの力学と、平らで真空エネルギーが支配する宇宙におけるスカラー場の力学が構造的に関連していることを示す。
この双対性は、ニューラルネットワークのダイナミクスを理解し説明するための、これらのシステム間のシナジーのためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-22T19:00:01Z) - Towards a theory of quantum gravity from neural networks [0.0]
トレーニング可能な変数の非平衡力学はマドルング方程式によって記述できることを示す。
ローレンツ対称性と湾曲時空は、学習によるエントロピー生成とエントロピー破壊の間の相互作用から生じる可能性があると論じる。
論文 参考訳(メタデータ) (2021-10-28T12:39:01Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Lagrangian Neural Network with Differential Symmetries and Relational
Inductive Bias [5.017136256232997]
システムのラグランジアンを学習するラグランジアンニューラルネットワーク(MCLNN)の運動量について述べる。
また、開発したモデルが任意の大きさのシステムに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T08:49:57Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。