論文の概要: Machine-learning physics from unphysics: Finding deconfinement
temperature in lattice Yang-Mills theories from outside the scaling window
- arxiv url: http://arxiv.org/abs/2009.10971v2
- Date: Sat, 24 Oct 2020 07:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 17:04:23.696802
- Title: Machine-learning physics from unphysics: Finding deconfinement
temperature in lattice Yang-Mills theories from outside the scaling window
- Title(参考訳): 不物理からの機械学習物理:スケーリング窓の外から格子ヤン・ミルズ理論の分解温度を求める
- Authors: D.L. Boyda, M.N. Chernodub, N.V. Gerasimeniuk, V.A. Goy, S.D.
Liubimov, A.V. Molochkov
- Abstract要約: 格子ゲージ理論の臨界挙動に応用した機械学習技術について検討する。
入力として格子パラメータの非物理値でゲージ場の格子構成を訓練したニューラルネットワークがゲージ不変関数を構築することを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the machine learning techniques applied to the lattice gauge
theory's critical behavior, particularly to the confinement/deconfinement phase
transition in the SU(2) and SU(3) gauge theories. We find that the neural
network, trained on lattice configurations of gauge fields at an unphysical
value of the lattice parameters as an input, builds up a gauge-invariant
function, and finds correlations with the target observable that is valid in
the physical region of the parameter space. In particular, if the algorithm
aimed to predict the Polyakov loop as the deconfining order parameter, it
builds a trace of the gauge group matrices along a closed loop in the time
direction. As a result, the neural network, trained at one unphysical value of
the lattice coupling $\beta$ predicts the order parameter in the whole region
of the $\beta$ values with good precision. We thus demonstrate that the machine
learning techniques may be used as a numerical analog of the analytical
continuation from easily accessible but physically uninteresting regions of the
coupling space to the interesting but potentially not accessible regions.
- Abstract(参考訳): 格子ゲージ理論の臨界挙動,特にSU(2)およびSU(3)ゲージ理論における閉じ込め/分解相転移に応用する機械学習技術について検討する。
入力として格子パラメータの非物理的値におけるゲージ場の格子構成に基づいてトレーニングされたニューラルネットワークがゲージ不変関数を構築し,パラメータ空間の物理領域で有効な目標観測値との相関関係を求める。
特に、ポリアコフループを分解順序パラメータとして予測することを目的としたアルゴリズムでは、時間方向の閉ループに沿ってゲージ群行列のトレースを構築する。
その結果、格子結合の1つの非物理的値である$\beta$でトレーニングされたニューラルネットワークは、$\beta$値の領域全体の順序パラメータを精度良く予測する。
したがって,機械学習手法は,結合空間の容易だが物理的に興味をそそらない領域から興味をそそらない領域への解析継続の数値的類似物として用いることができることを示す。
関連論文リスト
- KPZ scaling from the Krylov space [83.88591755871734]
近年,Cardar-Parisi-Zhangスケーリングをリアルタイムの相関器や自動相関器に示す超拡散が報告されている。
これらの結果から着想を得て,Krylov演算子に基づく相関関数のKPZスケーリングについて検討する。
論文 参考訳(メタデータ) (2024-06-04T20:57:59Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Machine learning a fixed point action for SU(3) gauge theory with a gauge equivariant convolutional neural network [0.0]
固定点格子作用は、離散化効果や量子レベルでの格子アーチファクトの減少の影響を受けない連続古典的性質を持つように設計されている。
ここでは、機械学習手法を用いて、固定点アクションのパラメータ化方法に関する質問を再考する。
論文 参考訳(メタデータ) (2024-01-12T10:03:00Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Deep Quantum Neural Networks are Gaussian Process [0.0]
1/d$展開を用いて閉形式関係における有限幅の影響を調べる枠組みを提案する。
量子ニューラルタンジェントカーネル(QNTK)を特徴とするGPとそのパラメータ空間の等価性について解明する。
論文 参考訳(メタデータ) (2023-05-22T03:07:43Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Adding machine learning within Hamiltonians: Renormalization group
transformations, symmetry breaking and restoration [0.0]
我々は、位相分類のために設計されたニューラルネットワークの予測関数を、系のハミルトニアン内の外部磁場に結合した共役変数として含む。
結果は, 対称性を破り, 復元することで, 秩序相転移を誘導できることを示す。
機械学習と物理をブリッジする上で,この手法がいかに重要なステップを提供するかを論じる。
論文 参考訳(メタデータ) (2020-09-30T18:44:18Z) - Topological defects and confinement with machine learning: the case of
monopoles in compact electrodynamics [0.0]
我々は、閉じ込めと切り離しフェーズを区別するために、モノポール構成のセットでニューラルネットワークを訓練する。
本モデルでは,アルゴリズムに実装された基準に依存する遷移温度を精度良く決定できることを示す。
論文 参考訳(メタデータ) (2020-06-16T12:41:19Z) - Extending machine learning classification capabilities with histogram
reweighting [0.0]
本稿では,モンテカルロヒストグラム再重み付けを用いて機械学習手法の予測を外挿する手法を提案する。
本稿では,畳み込みニューラルネットワークの出力を統計システムで観測可能なものとして扱い,パラメータ空間の連続範囲における外挿を可能にする。
論文 参考訳(メタデータ) (2020-04-29T17:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。