論文の概要: Machine-Learning Accelerated Calculations of Reduced Density Matrices
- arxiv url: http://arxiv.org/abs/2511.07367v1
- Date: Mon, 10 Nov 2025 18:23:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.408577
- Title: Machine-Learning Accelerated Calculations of Reduced Density Matrices
- Title(参考訳): 還元密度行列の機械学習高速化計算
- Authors: Awwab A. Azam, Lexu Zhao, Jiabin Yu,
- Abstract要約: 我々は、ニューラルネットワーク(NN)アーキテクチャを用いて、大規模システムに対する$n$-RDMの計算を高速化し、予測することを提案する。
根底にある直感では、$n$-RDMはブリルアンゾーン(BZ)上の滑らかな関数であり、補間可能であるため、NNが小さな$n$-RDMで訓練して大きな関数を予測することができる。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: $n$-particle reduced density matrices ($n$-RDMs) play a central role in understanding correlated phases of matter. Yet the calculation of $n$-RDMs is often computationally inefficient for strongly-correlated states, particularly when the system sizes are large. In this work, we propose to use neural network (NN) architectures to accelerate the calculation of, and even predict, the $n$-RDMs for large-size systems. The underlying intuition is that $n$-RDMs are often smooth functions over the Brillouin zone (BZ) (certainly true for gapped states) and are thus interpolable, allowing NNs trained on small-size $n$-RDMs to predict large-size ones. Building on this intuition, we devise two NNs: (i) a self-attention NN that maps random RDMs to physical ones, and (ii) a Sinusoidal Representation Network (SIREN) that directly maps momentum-space coordinates to RDM values. We test the NNs in three 2D models: the pair-pair correlation functions of the Richardson model of superconductivity, the translationally-invariant 1-RDM in a four-band model with short-range repulsion, and the translation-breaking 1-RDM in the half-filled Hubbard model. We find that a SIREN trained on a $6\times 6$ momentum mesh can predict the $18\times 18$ pair-pair correlation function with a relative accuracy of $0.839$. The NNs trained on $6\times 6 \sim 8\times 8$ meshes can provide high-quality initial guesses for $50\times 50$ translation-invariant Hartree-Fock (HF) and $30\times 30$ fully translation-breaking-allowed HF, reducing the number of iterations required for convergence by up to $91.63\%$ and $92.78\%$, respectively, compared to random initializations. Our results illustrate the potential of using NN-based methods for interpolable $n$-RDMs, which might open a new avenue for future research on strongly correlated phases.
- Abstract(参考訳): n$-粒子還元密度行列(n$-RDMs)は、物質の相関相を理解する上で中心的な役割を果たす。
しかし、$n$-RDMの計算は、特にシステムサイズが大きい場合、強相関状態に対して計算的に非効率であることが多い。
本研究では,大規模システムに対する$n$-RDMの計算を高速化し,予測するためにニューラルネットワーク(NN)アーキテクチャを提案する。
根底にある直観は、$n$-RDMはブリルアンゾーン(BZ)上の滑らかな関数であり(明らかにギャップのある状態に当てはまる)、補間可能であるため、NNが小さな$n$-RDMで訓練し、大規模なものを予測できるということである。
この直感に基づいて、2つのNNを考案しました。
(i)ランダムRDMを物理的にマッピングする自己注意型NN
(II)運動量空間座標を直接RDM値にマッピングする正弦波表現ネットワーク(SIREN)。
超伝導のリチャードソンモデルの対対相関関数、短距離反発を持つ4バンドモデルにおける翻訳不変1-RDM、半充填ハバードモデルにおける翻訳破壊1-RDMの3つのモデルでNNを試験する。
6倍の運動量メッシュでトレーニングされたSIRENは、相対的精度が0.839ドルである18倍のペアペア相関関数を予測できる。
6\times 6 \sim 8\times 8$ meshesは50\times 50$ Translation-invariant Hartree-Fock (HF) と30\times 30$ fully translation-breaking-allowed HFで訓練された。
本研究は, NN-based method for interpolable $n$-RDMs, which may open a new journey for future research on strong correlation phases。
関連論文リスト
- VAE-DNN: Energy-Efficient Trainable-by-Parts Surrogate Model For Parametric Partial Differential Equations [49.1574468325115]
本稿では, 前方および逆パラメータ化非線形偏微分方程式を解くための, トレーニング可能な各部分サロゲートモデルを提案する。
提案手法はエンコーダを用いて高次元の入力$y(bmx)$を低次元の潜在空間である$bmmu_bmphi_y$に還元する。
完全連結ニューラルネットワークを用いて、Pの潜伏空間に$bmmu_bmphi_y$、$bmmu_bmphi_h$をマッピングする。
論文 参考訳(メタデータ) (2025-08-05T18:37:32Z) - Efficient k-Nearest-Neighbor Machine Translation with Dynamic Retrieval [49.825549809652436]
$k$NN-MTはドメイン固有の翻訳知識を保持するために外部データストアを構築する。
適応検索(k$NN-MT-AR)は、$lambda$を動的に推定し、$lambda$が固定しきい値以下であれば$k$NN検索をスキップする。
本稿では,バニラ$k$NN-MTを大幅に拡張した動的検索(k$NN-MT-DR)を提案する。
論文 参考訳(メタデータ) (2024-06-10T07:36:55Z) - Spatially heterogeneous learning by a deep student machine [0.0]
多数の調整可能なパラメータを持つディープニューラルネットワーク(DNN)は、ほとんどブラックボックスのままである。
我々は,教師学生設定と呼ばれる統計力学手法を用いて,NL$パーセプトロンと$c$入力からなるDNNと深度$L$の教師学習について検討した。
N gg c gg 1$ and $M gg 1$ with fixed $alpha=M/c$ using the replica method developed in (H. Yoshino,)
論文 参考訳(メタデータ) (2023-02-15T01:09:03Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Provably Efficient Offline Reinforcement Learning with Trajectory-Wise
Reward [66.81579829897392]
我々はPessimistic vAlue iteRaTionとrEward Decomposition (PARTED)という新しいオフライン強化学習アルゴリズムを提案する。
PartEDは、最小2乗ベースの報酬再分配を通じて、ステップごとのプロキシ報酬に軌道を分解し、学習したプロキシ報酬に基づいて悲観的な値を実行する。
私たちの知る限りでは、PartEDは、トラジェクティブな報酬を持つ一般のMDPにおいて、証明可能な効率のよい最初のオフラインRLアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-13T19:11:22Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。