論文の概要: Multi-Lattice Sampling of Quantum Field Theories via Neural Operator-based Flows
- arxiv url: http://arxiv.org/abs/2401.00828v4
- Date: Thu, 07 Nov 2024 08:29:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-09 00:48:59.844353
- Title: Multi-Lattice Sampling of Quantum Field Theories via Neural Operator-based Flows
- Title(参考訳): ニューラルネットワークを用いた量子場理論のマルチ格子サンプリング
- Authors: Bálint Máté, François Fleuret,
- Abstract要約: いくつかの作用に対応するボルツマン分布から格子上の格子場構成をサンプリングする問題を考える。
本稿では,時間積分が自由理論と対象理論の関数分布のマッピングを提供する時間依存ニューラル演算子を近似することを提案する。
- 参考スコア(独自算出の注目度): 22.333897842462342
- License:
- Abstract: We consider the problem of sampling lattice field configurations on a lattice from the Boltzmann distribution corresponding to some action. Since such densities arise as approximationw of an underlying functional density, we frame the task as an instance of operator learning. We propose to approximate a time-dependent neural operator whose time integral provides a mapping between the functional distributions of the free and target theories. Once a particular lattice is chosen, the neural operator can be discretized to a finite-dimensional, time-dependent vector field which in turn induces a continuous normalizing flow between finite dimensional distributions over the chosen lattice. This flow can then be trained to be a diffeormorphism between the discretized free and target theories on the chosen lattice, and, by construction, can be evaluated on different discretizations of spacetime. We experimentally validate the proposal on the 2-dimensional $\phi^4$-theory to explore to what extent such operator-based flow architectures generalize to lattice sizes they were not trained on, and show that pretraining on smaller lattices can lead to a speedup over training directly on the target lattice size.
- Abstract(参考訳): いくつかの作用に対応するボルツマン分布から格子上の格子場構成をサンプリングする問題を考える。
そのような密度は、基礎となる汎関数密度の近似として生じるので、我々はそのタスクを演算子学習の例とみなす。
本稿では,時間積分が自由理論と対象理論の関数分布のマッピングを提供する時間依存ニューラル演算子を近似することを提案する。
特定の格子が選択されると、ニューラル作用素は有限次元の時間依存ベクトル場に離散化され、それによって選択された格子上の有限次元分布の間の連続正規化フローが誘導される。
この流れは、選択された格子上の離散化された自由理論と対象理論の間の微分同型として訓練され、構成により、時空の異なる離散化に基づいて評価することができる。
この提案を2次元の$\phi^4$-理論で実験的に検証し、そのような演算子ベースのフローアーキテクチャがトレーニングされていない格子サイズにどの程度一般化するかを検証し、より小さな格子での事前学習がターゲット格子サイズを直接的にトレーニングするスピードアップに繋がることを示した。
関連論文リスト
- Radiative transport in a periodic structure with band crossings [52.24960876753079]
任意の空間次元におけるシュリンガー方程式の半古典モデル(英語版)を導出する。
決定論的シナリオとランダムシナリオの両方を考慮する。
特定の応用として、ランダムなグラフェン中のウェーブパケットの有効ダイナミクスを導出する。
論文 参考訳(メタデータ) (2024-02-09T23:34:32Z) - Sampling and estimation on manifolds using the Langevin diffusion [45.57801520690309]
離散化マルコフ過程に基づく$mu_phi $の線形汎函数の2つの推定器を検討する。
誤差境界は、本質的に定義されたランゲヴィン拡散の離散化を用いてサンプリングと推定のために導出される。
論文 参考訳(メタデータ) (2023-12-22T18:01:11Z) - Random Smoothing Regularization in Kernel Gradient Descent Learning [24.383121157277007]
古典的ソボレフ空間に属する幅広い基底真理関数を適応的に学習できるランダムなスムーズな正規化のための枠組みを提案する。
我々の推定器は、基礎となるデータの構造的仮定に適応し、次元の呪いを避けることができる。
論文 参考訳(メタデータ) (2023-05-05T13:37:34Z) - Normalizing flows for lattice gauge theory in arbitrary space-time
dimension [135.04925500053622]
格子ゲージ理論における場配置のサンプリングへの正規化フローの応用は、これまで2つの時空次元においてほぼ独占的に検討されてきた。
我々は、スケーラブルで正確なフローベースサンプリングアルゴリズムの鍵となる、トラクタブルで偏りのないジャコビアン行列式によるマスク付き自己回帰について論じる。
具体的には、4つの時空次元におけるSU(3)ゲージ理論への原理的応用の結果が報告される。
論文 参考訳(メタデータ) (2023-05-03T19:54:04Z) - Classifying topological neural network quantum states via diffusion maps [0.0]
量子多体系におけるトポロジ的順序を検出するために,教師なしの機械学習手法を議論し,実証する。
制限ボルツマン機械を用いて低エネルギースペクトルに対する変分アンザッツを定義する。
拡散写像では、量子状態の要求される類似度尺度がネットワークパラメータの項で定義できることが示される。
論文 参考訳(メタデータ) (2023-01-06T19:00:21Z) - Neural Conservation Laws: A Divergence-Free Perspective [36.668126758052814]
本稿では、微分形式の概念を用いて、分散のないニューラルネットワークを構築することを提案する。
これらのモデルが普遍的であることを証明し、任意の発散自由ベクトル場を表現するために使うことができる。
論文 参考訳(メタデータ) (2022-10-04T17:01:53Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Continuous normalizing flows on manifolds [0.342658286826597]
本稿では,最近導入されたニューラルODEと連続正規化フローを任意の滑らかな多様体に拡張する方法について述べる。
本稿では,これらの空間上のベクトル場をパラメータ化するための一般的な手法を提案する。
論文 参考訳(メタデータ) (2021-03-14T15:35:19Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Scaling limits of lattice quantum fields by wavelets [62.997667081978825]
再正規化群は格子体代数間の拡大写像の帰納的体系と見なされる。
自由格子基底状態の帰納的極限が存在し、極限状態はよく知られた巨大連続体自由場にまで拡張されることを示す。
論文 参考訳(メタデータ) (2020-10-21T16:30:06Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。