論文の概要: DysonNet: Constant-Time Local Updates for Neural Quantum States
- arxiv url: http://arxiv.org/abs/2603.11189v1
- Date: Wed, 11 Mar 2026 18:01:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.563896
- Title: DysonNet: Constant-Time Local Updates for Neural Quantum States
- Title(参考訳): DysonNet: ニューラル量子状態の定時間ローカルアップデート
- Authors: Lucas Winter, Andreas Nunnenkamp,
- Abstract要約: 我々は,大域線形層を通した厳密な局所非線形性を持つニューラル量子状態(NQS)のクラスであるDysonNetを紹介する。
散乱系列を再仮定することにより、単一スピンフリップの更新はシステムサイズに依存しない$mathcalO(1)$ timeで計算できる。
我々は、DysonNetが最先端NQSの精度と一致し、ローカル更新のオーバーヘッドを排除していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural quantum states (NQS) provide a flexible variational framework for many-body wavefunctions, but suffer from high computational cost and limited interpretability. We introduce DysonNet, a broad class of NQS that couples strictly local nonlinearities through global linear layers. This structure is analogous to a truncated Dyson series which gives an intuitive interpretation of local wavefunction updates as scattering from static impurities. By resumming the scattering series, single-spin-flip updates can be computed in $\mathcal{O}(1)$ time, independent of system size, using an algorithm we call ABACUS. Implementing DysonNet with the state-space model S4, we obtain up to $230\times$ speedups over Vision-Transformers for computing the local estimator. This corresponds to an asymptotic $\mathcal{O}(N^2)$ improvement in training-time scaling, reaching $\mathcal{O}(N \log^2 N)$ total training complexity in area-law phases. Benchmarks on the 1D long-range Ising model and frustrated $J_1$-$J_2$ chains show that DysonNet matches state-of-the-art NQS accuracy while removing the dominant local-update overhead. More broadly, our results suggest a route to scalable NQS architectures where physical interpretability directly enables computational efficiency.
- Abstract(参考訳): ニューラル量子状態(NQS)は、多体波動関数に対して柔軟な変動の枠組みを提供するが、高い計算コストと限定的な解釈可能性に悩まされている。
我々は大域的線形層を通した厳密な局所非線形性を持つNQSの幅広いクラスであるDysonNetを紹介する。
この構造は、局所波動関数の更新を静的不純物からの散乱として直感的に解釈する、切り離されたダイソン級数に類似している。
散乱系列を再仮定することにより、ABACUSと呼ばれるアルゴリズムを用いて、システムサイズに依存しない$\mathcal{O}(1)$ timeでシングルスピンフリップ更新を計算することができる。
Inmplementing DysonNet with the state-space model S4, we obtained ups over Vision-Transformer for computing the local estimator。
これは、漸近的な$\mathcal{O}(N^2)$トレーニング時間スケーリングの改善に対応し、領域法相における総トレーニング複雑性が$\mathcal{O}(N \log^2N)$に達する。
1Dの長距離Isingモデルのベンチマークと、J_1$-$J_2$チェーンのフラストレーションは、DysonNetが最先端のNQS精度と一致し、支配的なローカル更新オーバーヘッドを取り除くことを示している。
より広範に、物理的解釈可能性によって直接計算効率が向上するスケーラブルなNQSアーキテクチャへの道筋を示唆している。
関連論文リスト
- HollowFlow: Efficient Sample Likelihood Evaluation using Hollow Message Passing [2.220152876549942]
新たなグラフニューラルネットワーク(NoBGNN)を活用したフローベース生成モデルである$textitHollowFlow$を紹介した。
ブロック対角ジャコビアン構造を強制することにより、ホローフロー確率は、一定の数の後方通過で$n$で評価され、最大$mathcalO(n2)$のスピードアップが得られる。
論文 参考訳(メタデータ) (2025-10-24T15:04:24Z) - FFT-Accelerated Auxiliary Variable MCMC for Fermionic Lattice Models: A Determinant-Free Approach with $O(N\log N)$ Complexity [52.3171766248012]
量子多体系のシミュレーションを劇的に高速化するマルコフ連鎖モンテカルロ(MCMC)アルゴリズムを導入する。
我々は,量子物理学のベンチマーク問題に対するアルゴリズムの有効性を検証し,既知の理論結果を正確に再現する。
我々の研究は、大規模確率的推論のための強力なツールを提供し、物理学に着想を得た生成モデルのための道を開く。
論文 参考訳(メタデータ) (2025-10-13T07:57:21Z) - Dual Natural Gradient Descent for Scalable Training of Physics-Informed Neural Networks [0.7562843347215286]
物理インフォームドニューラルネットワーク(PINN)の学習を著しく促進する自然段階的手法
textitDual Natural Gradient Descent (D-NGD)を紹介する。
D-NGDは、残留空間におけるガウス-ニュートンステップを計算し、ジオデシック加速度補正を無視可能な余剰コストで拡張し、モデスト$m$とNystrom-preconditioned conjugate-gradient solverをより大きい$m$で提供する。
論文 参考訳(メタデータ) (2025-05-27T16:27:23Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - Quantum Algorithms for Simulating the Lattice Schwinger Model [63.18141027763459]
NISQとフォールトトレラントの両方の設定で格子シュウィンガーモデルをシミュレートするために、スケーラブルで明示的なデジタル量子アルゴリズムを提供する。
格子単位において、結合定数$x-1/2$と電場カットオフ$x-1/2Lambda$を持つ$N/2$物理サイト上のシュウィンガーモデルを求める。
NISQと耐故障性の両方でコストがかかるオブザーバブルを、単純なオブザーバブルとして推定し、平均ペア密度を推定する。
論文 参考訳(メタデータ) (2020-02-25T19:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。