論文の概要: Efficient lattice field theory simulation using adaptive normalizing flow on a resistive memory-based neural differential equation solver
- arxiv url: http://arxiv.org/abs/2509.12812v1
- Date: Tue, 16 Sep 2025 08:30:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.966958
- Title: Efficient lattice field theory simulation using adaptive normalizing flow on a resistive memory-based neural differential equation solver
- Title(参考訳): 抵抗型メモリ型ニューラル微分方程式解法における適応正規化流を用いた効率的な格子場理論シミュレーション
- Authors: Meng Xu, Jichang Yang, Ning Lin, Qundao Xu, Siqi Tang, Han Wang, Xiaojuan Qi, Zhongrui Wang, Ming Xu,
- Abstract要約: 本稿では,適応正規化フローモデルとニューラル微分方程式解法を統合したソフトウェア・ハードウェア共同設計を提案する。
ハードウェア面では、抵抗メモリを用いたインメモリコンピューティングは並列性とエネルギー効率を大幅に向上させる。
共同設計により,HMC上での自己相関時間を約8.2倍,13.9倍に削減し,低コストな計算が可能となった。
- 参考スコア(独自算出の注目度): 23.776194029910986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lattice field theory (LFT) simulations underpin advances in classical statistical mechanics and quantum field theory, providing a unified computational framework across particle, nuclear, and condensed matter physics. However, the application of these methods to high-dimensional systems remains severely constrained by several challenges, including the prohibitive computational cost and limited parallelizability of conventional sampling algorithms such as hybrid Monte Carlo (HMC), the substantial training expense associated with traditional normalizing flow models, and the inherent energy inefficiency of digital hardware architectures. Here, we introduce a software-hardware co-design that integrates an adaptive normalizing flow (ANF) model with a resistive memory-based neural differential equation solver, enabling efficient generation of LFT configurations. Software-wise, ANF enables efficient parallel generation of statistically independent configurations, thereby reducing computational costs, while low-rank adaptation (LoRA) allows cost-effective fine-tuning across diverse simulation parameters. Hardware-wise, in-memory computing with resistive memory substantially enhances both parallelism and energy efficiency. We validate our approach on the scalar phi4 theory and the effective field theory of graphene wires, using a hybrid analog-digital neural differential equation solver equipped with a 180 nm resistive memory in-memory computing macro. Our co-design enables low-cost computation, achieving approximately 8.2-fold and 13.9-fold reductions in integrated autocorrelation time over HMC, while requiring fine-tuning of less than 8% of the weights via LoRA. Compared to state-of-the-art GPUs, our co-design achieves up to approximately 16.1- and 17.0-fold speedups for the two tasks, as well as 73.7- and 138.0-fold improvements in energy efficiency.
- Abstract(参考訳): 格子場理論(LFT)シミュレーションは、古典的な統計力学と量子場理論の進歩を支え、粒子、核、凝縮物質物理学にまたがる統一的な計算枠組みを提供する。
しかし、これらの手法を高次元システムに適用することは、ハイブリッドモンテカルロ (HMC) のような従来のサンプリングアルゴリズムの計算コストの禁止と並列化の制限、従来の正規化フローモデルに関連するトレーニング費用の大幅な削減、デジタルハードウェアアーキテクチャの固有のエネルギー効率の低下など、いくつかの課題によって厳しく制約されている。
本稿では,適応正規化フロー(ANF)モデルと抵抗型メモリベースニューラル微分方程式解法を統合し,LFT構成の効率的な生成を可能にするソフトウェア・ハードウェア共同設計を提案する。
ソフトウェア面では、ANFは統計的に独立な構成の効率的な並列生成を可能にし、計算コストを削減し、ローランク適応(LoRA)は様々なシミュレーションパラメータをまたいだコスト効率の良い微調整を可能にする。
ハードウェア面では、抵抗メモリを用いたインメモリコンピューティングは並列性とエネルギー効率を大幅に向上させる。
グラフェンワイヤのスカラー・ファイ4理論と実効電界理論について,180nmの抵抗メモリインメモリ・コンピューティング・マクロを備えたハイブリッドアナログ・デジタル・ニューラル微分方程式解法を用いて検証した。
我々の共同設計は低コストで計算が可能であり,約8.2倍,13.9倍の自己相関時間を実現すると同時に,LoRAによる重量の8%未満の微調整も必要である。
最先端のGPUと比較して、我々の共同設計は2つのタスクの約16.1倍と17.0倍のスピードアップを実現し、エネルギー効率は73.7倍と138.0倍になった。
関連論文リスト
- Orthogonal Finetuning Made Scalable [87.49040247077389]
OFT(Orthogonal Finetuning)は、壊滅的な忘れ込みを防止しつつ、パラメータ効率の高い適応を提供するが、実行時とメモリの要求が高いため、実際のデプロイメントが制限される。
ここでは,OFTの計算ボトルネックを重み中心の実装とみなす。
本稿では,行列ベクトル乗法(行列フリー計算)を用いて,計算コストを2次に削減する入力中心の変換法OFTv2を提案する。
これらの修正により、OFTv2はパフォーマンスを損なうことなく、最大10倍高速なトレーニングと3倍のGPUメモリ使用率を達成することができる。
論文 参考訳(メタデータ) (2025-06-24T17:59:49Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Time Marching Neural Operator FE Coupling: AI Accelerated Physics Modeling [3.0635300721402228]
本研究は、物理インフォームド・ディープ・オペレーター・ネットワークをドメイン分解によりFEMと統合する新しいハイブリッド・フレームワークを導入する。
動的システムの課題に対処するため、DeepONetに直接タイムステッピングスキームを組み込み、長期エラーの伝搬を大幅に低減する。
提案手法は, 従来手法に比べて収束率を最大20%向上させるとともに, 誤差マージンが3%未満の解の忠実度を保ちながら, 収束率の高速化を図っている。
論文 参考訳(メタデータ) (2025-04-15T16:54:04Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Physics aware machine learning for micromagnetic energy minimization: recent algorithmic developments [0.0]
ブラウンの静電自己エネルギーに対する境界の上に構築し、伝達問題の変分定式化の文脈でそれらの応用を再検討する。
有限領域上のこれらの境界を再構成し、数値シミュレーションの手法をより効率的かつスケーラブルにする。
その結果,メッシュフリーな物理インフォームドニューラルネットワーク(PINN)とELM(Extreme Learning Machines)が,厳しい制約と統合される可能性を強調した。
論文 参考訳(メタデータ) (2024-09-19T16:22:40Z) - Adaptive Error-Bounded Hierarchical Matrices for Efficient Neural Network Compression [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)に適した動的,エラーバウンドな階層行列 (H-matrix) 圧縮手法を提案する。
提案手法は,ニューラル・タンジェント・カーネル(NTK)の本質的性質を保ちながら,大規模物理モデルにおける計算複雑性とメモリ要求を低減させる。
実験により, この手法は, 高精度を維持し, 一般化能力を向上させることにより, Singular Value Decomposition (SVD) やプルーニング, 量子化などの従来の圧縮手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-11T05:55:51Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。