論文の概要: Multi-Lattice Sampling of Quantum Field Theories via Neural
Operator-based Flows
- arxiv url: http://arxiv.org/abs/2401.00828v2
- Date: Sat, 13 Jan 2024 15:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 23:48:38.966028
- Title: Multi-Lattice Sampling of Quantum Field Theories via Neural
Operator-based Flows
- Title(参考訳): ニューラルネットワークを用いた量子場理論のマルチ格子サンプリング
- Authors: B\'alint M\'at\'e, Fran\c{c}ois Fleuret
- Abstract要約: ボルツマン分布から離散場構成をサンプリングする問題を考察する。
私たちはそのタスクをオペレータ学習の例としています。
より小さな格子上での事前学習は、目標格子サイズのみのトレーニングよりも高速になることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of sampling discrete field configurations $\phi$ from
the Boltzmann distribution $[d\phi] Z^{-1} e^{-S[\phi]}$, where $S$ is the
lattice-discretization of the continuous Euclidean action $\mathcal S$ of some
quantum field theory. Since such densities arise as the approximation of the
underlying functional density $[\mathcal D\phi(x)] \mathcal Z^{-1} e^{-\mathcal
S[\phi(x)]}$, we frame the task as an instance of operator learning. In
particular, we propose to approximate a time-dependent operator $\mathcal V_t$
whose time integral provides a mapping between the functional distributions of
the free theory $[\mathcal D\phi(x)] \mathcal Z_0^{-1} e^{-\mathcal
S_{0}[\phi(x)]}$ and of the target theory $[\mathcal D\phi(x)]\mathcal
Z^{-1}e^{-\mathcal S[\phi(x)]}$. Whenever a particular lattice is chosen, the
operator $\mathcal V_t$ can be discretized to a finite dimensional,
time-dependent vector field $V_t$ which in turn induces a continuous
normalizing flow between finite dimensional distributions over the chosen
lattice. This flow can then be trained to be a diffeormorphism between the
discretized free and target theories $[d\phi] Z_0^{-1} e^{-S_{0}[\phi]}$,
$[d\phi] Z^{-1}e^{-S[\phi]}$. We run experiments on the $\phi^4$-theory to
explore to what extent such operator-based flow architectures generalize to
lattice sizes they were not trained on and show that pretraining on smaller
lattices can lead to speedup over training only a target lattice size.
- Abstract(参考訳): 我々は、ボルツマン分布から離散体構成をサンプリングする問題を$\phi$, $[d\phi] Z^{-1} e^{-S[\phi]}$, where $S$ is the lattice-discretization of the continuous Euclidean action $\mathcal S$ of some quantum field theoryとする。
そのような密度は、基礎となる汎函数密度 $[\mathcal D\phi(x)] \mathcal Z^{-1} e^{-\mathcal S[\phi(x)]}$ の近似として生じるので、演算子学習の例としてタスクをフレーム化する。
特に、時間積分が自由理論 $[\mathcal D\phi(x)] \mathcal Z_0^{-1} e^{-\mathcal S_{0}[\phi(x)]} の函数分布と対象理論 $[\mathcal D\phi(x)]\mathcal Z^{-1}e^{-\mathcal S[\phi(x)]} の写像を与える時間依存作用素 $\mathcal V_t$ を近似することを提案する。
特定の格子が選択されると、作用素 $\mathcal v_t$ は有限次元の時間依存ベクトル場 $v_t$ に離散化され、これは選択された格子上の有限次元分布の間の連続正規化フローを誘導する。
この流れは、離散化された自由理論と対象理論である $[d\phi] z_0^{-1} e^{-s_{0}[\phi]}$, $[d\phi] z^{-1}e^{-s[\phi]}$ の間の二相化として訓練することができる。
このような演算子ベースのフローアーキテクチャが、トレーニングされていない格子サイズにどの程度一般化するかを探索するために、$\phi^4$-theoryで実験を行い、より小さな格子に対する事前トレーニングが、ターゲット格子サイズのみのトレーニングよりも高速になることを示す。
関連論文リスト
- Sampling and estimation on manifolds using the Langevin diffusion [45.57801520690309]
離散化マルコフ過程に基づく$mu_phi $の線形汎函数の2つの推定器を検討する。
誤差境界は、本質的に定義されたランゲヴィン拡散の離散化を用いてサンプリングと推定のために導出される。
論文 参考訳(メタデータ) (2023-12-22T18:01:11Z) - Random Smoothing Regularization in Kernel Gradient Descent Learning [24.383121157277007]
古典的ソボレフ空間に属する幅広い基底真理関数を適応的に学習できるランダムなスムーズな正規化のための枠組みを提案する。
我々の推定器は、基礎となるデータの構造的仮定に適応し、次元の呪いを避けることができる。
論文 参考訳(メタデータ) (2023-05-05T13:37:34Z) - Normalizing flows for lattice gauge theory in arbitrary space-time
dimension [135.04925500053622]
格子ゲージ理論における場配置のサンプリングへの正規化フローの応用は、これまで2つの時空次元においてほぼ独占的に検討されてきた。
我々は、スケーラブルで正確なフローベースサンプリングアルゴリズムの鍵となる、トラクタブルで偏りのないジャコビアン行列式によるマスク付き自己回帰について論じる。
具体的には、4つの時空次元におけるSU(3)ゲージ理論への原理的応用の結果が報告される。
論文 参考訳(メタデータ) (2023-05-03T19:54:04Z) - Classifying topological neural network quantum states via diffusion maps [0.0]
量子多体系におけるトポロジ的順序を検出するために,教師なしの機械学習手法を議論し,実証する。
制限ボルツマン機械を用いて低エネルギースペクトルに対する変分アンザッツを定義する。
拡散写像では、量子状態の要求される類似度尺度がネットワークパラメータの項で定義できることが示される。
論文 参考訳(メタデータ) (2023-01-06T19:00:21Z) - Neural Conservation Laws: A Divergence-Free Perspective [36.668126758052814]
本稿では、微分形式の概念を用いて、分散のないニューラルネットワークを構築することを提案する。
これらのモデルが普遍的であることを証明し、任意の発散自由ベクトル場を表現するために使うことができる。
論文 参考訳(メタデータ) (2022-10-04T17:01:53Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Continuous normalizing flows on manifolds [0.342658286826597]
本稿では,最近導入されたニューラルODEと連続正規化フローを任意の滑らかな多様体に拡張する方法について述べる。
本稿では,これらの空間上のベクトル場をパラメータ化するための一般的な手法を提案する。
論文 参考訳(メタデータ) (2021-03-14T15:35:19Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Scaling limits of lattice quantum fields by wavelets [62.997667081978825]
再正規化群は格子体代数間の拡大写像の帰納的体系と見なされる。
自由格子基底状態の帰納的極限が存在し、極限状態はよく知られた巨大連続体自由場にまで拡張されることを示す。
論文 参考訳(メタデータ) (2020-10-21T16:30:06Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。