論文の概要: Density Matrix Renormalization Group with Tensor Processing Units
- arxiv url: http://arxiv.org/abs/2204.05693v1
- Date: Tue, 12 Apr 2022 10:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 05:44:23.349003
- Title: Density Matrix Renormalization Group with Tensor Processing Units
- Title(参考訳): テンソルプロセッシングユニットを用いた密度行列再正規化群
- Authors: Martin Ganahl, Jackson Beall, Markus Hauru, Adam G. M. Lewis, Jae
Hyeon Yoo, Yijian Zou, Guifre Vidal
- Abstract要約: GoogleのProcessing Units(TPU)は、機械学習ワークロードの高速化とスケールアップに特化した集積回路である。
本研究では、局所量子多体ハミルトニアンの基底状態を計算するための強力な数値的アプローチである密度行列再正規化群(DMRG)の高速化とスケールアップにTPUを用いることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Google's Tensor Processing Units (TPUs) are integrated circuits specifically
built to accelerate and scale up machine learning workloads. They can perform
fast distributed matrix multiplications and therefore be repurposed for other
computationally intensive tasks. In this work we demonstrate the use of TPUs
for accelerating and scaling up the density matrix renormalization group
(DMRG), a powerful numerical approach to compute the ground state of a local
quantum many-body Hamiltonian. The cost of DMRG scales with system size $N$ as
$O(ND^3)$, where the so-called bond dimension $D$ regulates how expressive the
underlying matrix product state (MPS) variational ansatz is. We consider
lattice models in two spatial dimensions, with square lattices of size
$10\times 10$ (free fermions) and $20\times 20$ (transverse field Ising model),
for which the required MPS bond dimension is known to scale at least as
$\exp(\sqrt{N})$. Using half of a TPU v3 pod (namely $1,\!024$ TPU v3 cores) we
reached an unprecedentedly large bond dimension $D = 2^{16} = 65,\!536$, for
which optimizing a single MPS tensor took about 2 minutes.
- Abstract(参考訳): GoogleのTensor Processing Units(TPU)は、機械学習ワークロードの高速化とスケールアップに特化した集積回路である。
高速分散行列の乗算を実行することができ、従って他の計算集約的なタスクに再利用することができる。
本研究では、局所量子多体ハミルトニアンの基底状態を計算するための強力な数値的アプローチである密度行列再正規化群(DMRG)の高速化とスケールアップにTPUを用いることを実証する。
DMRGのコストは、システムサイズ$N$ as$O(ND^3)$でスケールし、いわゆるボンド次元$D$は、基礎となる行列積状態(MPS)の変動アンサッツがどのように表現されるかを制御する。
2次元の空間次元における格子モデルを考えると、サイズ10\times 10$ (自由フェルミオン) と20\times 20$ (横場イジングモデル) の2つの格子モデルがあり、そこで要求されるmps結合次元は少なくとも$\exp(\sqrt{n})$ でスケールすることが知られている。
tpu v3ポッドの半分(つまり$1,\!
024$ TPU v3 cores) これまでにないほど大きな結合次元$D = 2^{16} = 65,\!
536ドルは、1つのMPSテンソルを最適化するのに約2分かかった。
関連論文リスト
- Optimized Quantum Simulation Algorithms for Scalar Quantum Field Theories [0.3394351835510634]
量子コンピュータ上でのスカラー場理論の実用的なシミュレーション手法を提案する。
本手法はハミルトニアンの各種耐故障シミュレーションアルゴリズムを用いて実装する。
どちらの場合も、バウンダリが物理的に意味のあるシミュレーションを4つの物理量子ビット(106ドル)と1012ドル(T$-gate)の順番で行うことを示唆している。
論文 参考訳(メタデータ) (2024-07-18T18:00:01Z) - Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - A distributed multi-GPU ab initio density matrix renormalization group
algorithm with applications to the P-cluster of nitrogenase [1.7444066202370399]
Initio density matrix renormalization (DMRG)アルゴリズムを最初に分散したマルチGPU(Graphics Processing Unit)を提案する。
我々は、48 GPU上で、前例のないほど大きな結合次元D=14000$に達することができる。
これは、CPUのみを使用して同じシステムに対する以前のDMRG計算で報告された結合次元の約3倍の大きさである。
論文 参考訳(メタデータ) (2023-11-06T04:01:26Z) - Fully $1\times1$ Convolutional Network for Lightweight Image
Super-Resolution [79.04007257606862]
ディープモデルは、シングルイメージ超解像(SISR)タスク、特に大きなカーネルを持つ大きなモデル(3時間3ドル以上)において重要なプロセスを持つ。
$1times1$の畳み込みは計算効率を大幅に向上させるが、局所的な空間表現の集約に苦労する。
我々は、Shift-Conv-based Network (SCNet) という、シンプルで効果的な1時間1ドルの畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-30T06:24:03Z) - On sampling determinantal and Pfaffian point processes on a quantum
computer [49.1574468325115]
DPPは1970年代の量子光学のモデルとしてマッキによって導入された。
ほとんどのアプリケーションはDPPからのサンプリングを必要としており、その量子起源を考えると、古典的なコンピュータでDPPをサンプリングするのは古典的なものよりも簡単かどうか疑問に思うのが自然である。
バニラサンプリングは、各コスト$mathcalO(N3)$と$mathcalO(Nr2)$の2つのステップから構成される。
論文 参考訳(メタデータ) (2023-05-25T08:43:11Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Monarch: Expressive Structured Matrices for Efficient and Accurate
Training [64.6871423399431]
大規模なニューラルネットワークは多くのドメインで優れているが、トレーニングや微調整は高価である。
計算やメモリ要件を減らすための一般的なアプローチは、重み付け行列を構造化行列に置き換えることである。
ハードウェア効率のよい行列(Monarch)のクラスを提案する。
論文 参考訳(メタデータ) (2022-04-01T17:37:29Z) - Simulation of quantum physics with Tensor Processing Units: brute-force
computation of ground states and time evolution [0.3232625980782302]
Processing Units (TPU) は、Googleが大規模機械学習タスクをサポートするために開発した。
本稿では、量子スピン系をシミュレーションする難しい問題に対して、TPUを再利用する。
2048コアを持つ TPU v3 pod では、最大$N=38$ qubits の波動関数 $|Psirangle$ をシミュレートする。
論文 参考訳(メタデータ) (2021-11-19T22:41:04Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - A scaling hypothesis for projected entangled-pair states [0.0]
本稿では,強い相関関係を持つシステムに対して,射影絡み合ったペア状態(PEPS)でシミュレーションをスケールするための新しいパラダイムを提案する。
データポイントの崩壊を誘導するために有効相関長$chi$,$f(D,chi)=f(xi(D,chi))$,$D$の任意の値と環境結合次元$chi$を使用する。
本研究では, 臨界3次元二量体モデル, 3次元古典イジングモデル, 2次元量子ハイゼンベルクモデルに関する仮説を検証した。
論文 参考訳(メタデータ) (2021-02-05T12:48:01Z) - Holographic quantum algorithms for simulating correlated spin systems [0.0]
相関スピン系の効率的な基底状態準備と動的進化のための「ホログラフィック」量子アルゴリズムスイートを提案する。
このアルゴリズムは、行列生成状態(MPS)と量子チャネルの等価性、および部分的な測定と量子ビット再使用を利用する。
潜在的な資源貯蓄の実証として,トラップイオン量子コンピュータ上での反強磁性ハイゼンベルク鎖のホロVQEシミュレーションを実装した。
論文 参考訳(メタデータ) (2020-05-06T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。