論文の概要: Accelerating two-dimensional tensor network contractions using QR-decompositions
- arxiv url: http://arxiv.org/abs/2505.00494v1
- Date: Thu, 01 May 2025 12:48:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.30164
- Title: Accelerating two-dimensional tensor network contractions using QR-decompositions
- Title(参考訳): QR分解による2次元テンソルネットワーク収縮の加速
- Authors: Yining Zhang, Qi Yang, Philippe Corboz,
- Abstract要約: 本稿では,角移動行列再正規化群とQR分解を組み合わせた$C_4v$-symmetric tensor network の縮約スキームを提案する。
提案手法は標準的なCTMRGと比較して最大2桁の速度アップを実現し,最先端の結果が得られる。
- 参考スコア(独自算出の注目度): 3.6498714804297387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infinite projected entangled-pair states (iPEPS) provide a powerful tool for studying strongly correlated systems directly in the thermodynamic limit. A core component of the algorithm is the approximate contraction of the iPEPS, where the computational bottleneck typically lies in the singular value or eigenvalue decompositions involved in the renormalization step. This is particularly true on GPUs, where tensor contractions are substantially faster than these decompositions. Here we propose a contraction scheme for $C_{4v}$-symmetric tensor networks based on combining the corner transfer matrix renormalization group (CTMRG) with QR-decompositions which are substantially faster -- especially on GPUs. Our approach achieves up to two orders of magnitude speedup compared to standard CTMRG and yields state-of-the-art results for the Heisenberg and $J_1$-$J_2$ models in about one hour on an H100 GPU.
- Abstract(参考訳): 無限射影エンタングルペア状態(iPEPS)は、熱力学限界において、強い相関系を直接研究するための強力なツールを提供する。
アルゴリズムのコアコンポーネントはiPEPSの近似収縮であり、計算ボトルネックは典型的には再正規化ステップに関わる特異値や固有値分解にある。
これは、テンソルの収縮がこれらの分解よりもかなり高速なGPUにおいて特に当てはまる。
本稿では,コーナ転送行列再正規化群 (CTMRG) と,特にGPU上でより高速なQR分解を併用した,$C_{4v}$-対称テンソルネットワークの縮約スキームを提案する。
提案手法は,標準的なCTMRGと比較して最大2桁の速度アップを実現し,H100 GPUで約1時間でHeisenbergとJ_1$-$J_2$モデルに対して最先端の結果が得られる。
関連論文リスト
- Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [63.945006006152035]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Variationally optimizing infinite projected entangled-pair states at large bond dimensions: A split corner transfer matrix renormalization group approach [0.2796197251957244]
本稿では,PEPS層を分離し,新しい環境テンソルを活用することで,精度を保ちながら計算複雑性を低減できる「スプリットCTMRG」アルゴリズムを提案する。
量子格子モデルのベンチマークでは、変動エネルギー最適化のためのかなりのスピードアップが示され、この手法は大規模PEPSシミュレーションに有用である。
論文 参考訳(メタデータ) (2025-02-14T16:59:33Z) - Spectral functions with infinite projected entangled-pair states [0.0]
非等時2点相関器を効率的に評価する手法により,iPEPSツールボックスを拡張した。
これは、大きな単位細胞の基底状態のiPEPSアンサッツに基づいており、オペレーターがセルの中央に適用される。
セル内の2点相関器は、毎回コーナー転送行列再正規化グループ法に基づいて計算される。
論文 参考訳(メタデータ) (2024-05-17T08:43:55Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Two dimensional quantum lattice models via mode optimized hybrid CPU-GPU density matrix renormalization group method [0.0]
2つの空間次元量子格子モデル上で量子多体問題をシミュレートするためのハイブリッド数値計算手法を提案する。
本研究では, 2次元スピンレスフェルミオンモデルと, トーラス幾何学上のハバードモデルについて, 計算時間における数桁の大きさを節約できることを実証する。
論文 参考訳(メタデータ) (2023-11-23T17:07:47Z) - Fast Time-Evolution of Matrix-Product States using the QR decomposition [0.0]
特異値分解(SVD)の代わりにQR分解に基づく切り出し方式を用いた時間発展ブロックデシメーションアルゴリズムの提案とベンチマークを行う。
この修正により、物理ヒルベルト空間の次元$d$を$d3$から$d2$に縮小する。
量子クロックモデルにおける大域的クエンチのベンチマークシミュレーションでは、最大3桁のスピードアップをA100 GPU上でQRとSVDベースの更新と比較する。
論文 参考訳(メタデータ) (2022-12-19T19:00:05Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - A Fast Parallel Tensor Decomposition with Optimal Stochastic Gradient
Descent: an Application in Structural Damage Identification [1.536989504296526]
本稿では, CANDECOMP/PARAFAC (CP) 分解を mathbbR I_1 times dots times I_N $ で並列化する新しいアルゴリズム FP-CPD を提案する。
論文 参考訳(メタデータ) (2021-11-04T05:17:07Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Kronecker CP Decomposition with Fast Multiplication for Compressing RNNs [11.01184134911405]
リカレントニューラルネットワーク(RNN)は、自然言語処理やビデオ認識などのシーケンシャルデータに指向するタスクにおいて強力である。
本稿では,Kronecker CANDECOMP/PARAFAC(KCP)分解に基づく圧縮RNNについて考察する。
論文 参考訳(メタデータ) (2020-08-21T07:29:45Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。