論文の概要: Reweighted Time-Evolving Block Decimation for Improved Quantum Dynamics Simulations
- arxiv url: http://arxiv.org/abs/2412.08730v1
- Date: Wed, 11 Dec 2024 19:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:12.298053
- Title: Reweighted Time-Evolving Block Decimation for Improved Quantum Dynamics Simulations
- Title(参考訳): 改良量子力学シミュレーションのための再加重時間進化ブロック決定法
- Authors: Sayak Guha Roy, Kevin Slagle,
- Abstract要約: 1次元混合量子状態の時間ダイナミクスをシミュレートするための時間進化ブロックデシメーション (TEBD) アルゴリズムの単純かつ重要な改良を導入する。
本稿では, トランケーションにおいて, 高い期待値を$gamma-n$の係数で優先順位付けする再重み付きTEBDアルゴリズムを提案する。
この単純な修正により、rTEBD は MPDO の TEBD 時間依存シミュレーションよりも大幅に正確になり、MPS を用いた TEBD よりもよく、時には良くなる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We introduce a simple yet significant improvement to the time-evolving block decimation (TEBD) tensor network algorithm for simulating the time dynamics of strongly correlated one-dimensional (1D) mixed quantum states. The efficiency of 1D tensor network methods stems from using a product of matrices to express either: the coefficients of a wavefunction, yielding a matrix product state (MPS); or the expectation values of a density matrix, yielding a matrix product density operator (MPDO). To avoid exponential computational costs, TEBD truncates the matrix dimension while simulating the time evolution. However, when truncating a MPDO, TEBD does not favor the likely more important low-weight expectation values, such as $\langle c_i^\dagger c_j \rangle$, over the exponentially many high-weight expectation values, such as $\langle c_{i_1}^\dagger c^\dagger_{i_2} \cdots c_{i_n} \rangle$ of weight $n$, despite the critical importance of the low-weight expectation values. Motivated by this shortcoming, we propose a reweighted TEBD (rTEBD) algorithm that deprioritizes high-weight expectation values by a factor of $\gamma^{-n}$ during the truncation. This simple modification (which only requires reweighting certain matrices by a factor of $\gamma$ in the MPDO) makes rTEBD significantly more accurate than the TEBD time-dependent simulation of an MPDO, and competive with and sometimes better than TEBD using MPS. Furthermore, by prioritizing low-weight expectation values, rTEBD preserves conserved quantities to high precision.
- Abstract(参考訳): 強相関1次元(1D)混合量子状態の時間ダイナミクスをシミュレーションするために,TEBDテンソルネットワークアルゴリズムの単純かつ重要な改良を導入する。
1Dテンソルネットワーク法の効率性は、波動関数の係数、行列積状態(MPS)、密度行列の期待値、行列積密度演算子(MPDO)のいずれかを表現するために行列の積を使うことに由来する。
指数計算コストを避けるため、TEBDは時間進化をシミュレートしながら行列次元を縮小する。
しかし、MPDOをtruncatする場合、TEBD は $\langle c_i^\dagger c_j \rangle$ のようなより重要な低重量期待値(例えば $\langle c_{i_1}^\dagger c^\dagger_{i_2} \cdots c_{i_n} \rangle$ of weight $n$ のような指数的に多くの高重量期待値(例えば $\langle c_{i_1}^\dagger c^\dagger_{i_2} \cdots c_{i_n} \rangle$ of weight $n$ など)を好まない。
この欠点に乗じて、トランケーション中に高い期待値を$\gamma^{-n}$で非優先順位化する再重み付きTEBD(rTEBD)アルゴリズムを提案する。
この単純な修正(MPDOの$\gamma$の係数による特定の行列の再重み付けのみを必要とする)により、rTEBD は MPDO の TEBD 時間依存シミュレーションよりも著しく正確になり、MPS を用いた TEBD と組み合わせて、時にはより良くなる。
さらに、低重量期待値を優先順位付けすることにより、保存した量を高精度に保存する。
関連論文リスト
- Large Language Model Evaluation via Matrix Nuclear-Norm [11.878496378814045]
本稿では,大規模言語モデル(LLM)のデータ圧縮精度を定量化するための指標として,マトリックス核ノルムを紹介する。
さらに、(L_1,2text-norm )を用いて核ノルムを近似することにより、モデルの情報圧縮能力を効果的に評価できる。
マトリックス核ノームは、CEREBRAS-GPTモデルにおいて、サイズが111Mから6.7Bに増加するにつれて、マトリックスエントロピーの8倍から24倍の速度を達成する。
論文 参考訳(メタデータ) (2024-10-14T16:15:57Z) - HiRE: High Recall Approximate Top-$k$ Estimation for Efficient LLM
Inference [68.59839755875252]
HiREは2つの新しいコンポーネントから構成される: (i) (i) (i) (i) (i) (i) (i) (i) (i) (i) (ii) DA-TOP-$k$: 効率的なマルチデバイス近似トップ-k$演算子) (i) (i) (i) (i) (i) (i) (i) DA-TOP-$k$演算子) 。
我々は、10億のパラメータモデルにおいて、HiREがソフトマックスとフィードフォワード層の両方に適用され、ほぼ一致した事前学習と下流の精度を実現し、1台のTPUv5eデバイスで1.47Times$の推論遅延を高速化することを示した。
論文 参考訳(メタデータ) (2024-02-14T18:04:36Z) - DBA: Efficient Transformer with Dynamic Bilinear Low-Rank Attention [53.02648818164273]
動的双線形低ランク注意(DBA)という,効率的かつ効果的な注意機構を提案する。
DBAは入力感度の動的射影行列によってシーケンス長を圧縮し、線形時間と空間の複雑さを実現する。
様々なシーケンス長条件のタスクに対する実験は、DBAが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T03:06:36Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - LUT-GEMM: Quantized Matrix Multiplication based on LUTs for Efficient Inference in Large-Scale Generative Language Models [9.727062803700264]
量子化行列乗算のための効率的なカーネルであるLUT-GEMMを紹介する。
LUT-GEMMは資源集約化プロセスを取り除き、計算コストを削減する。
我々は,3ビット量子化を用いたOPT-175Bモデルに適用した場合,LUT-GEMMはトークン生成遅延を大幅に高速化することを示した。
論文 参考訳(メタデータ) (2022-06-20T03:48:17Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - The Power of Log-Sum-Exp: Sequential Density Ratio Matrix Estimation for
Speed-Accuracy Optimization [0.0]
本稿では,時系列のマルチクラス分類モデルを提案する。
早期分類のためのアーキテクチャ MSPRT-TANDEM は、4つのデータセットのベースラインモデルよりも統計的に有意に優れている。
論文 参考訳(メタデータ) (2021-05-28T07:21:58Z) - Machine Learning Regression for Operator Dynamics [0.0]
本稿では,期待値の計算を長い時間間隔に効率的に拡張する解を提案する。
短時間間隔で計算された期待値の回帰のためのツールとして, 多層パーセプトロン(MLP)モデルを用いる。
論文 参考訳(メタデータ) (2021-02-23T18:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。