論文の概要: Reducing the Computational Cost Scaling of Tensor Network Algorithms via Field-Programmable Gate Array Parallelism
- arxiv url: http://arxiv.org/abs/2602.05900v1
- Date: Thu, 05 Feb 2026 17:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.078817
- Title: Reducing the Computational Cost Scaling of Tensor Network Algorithms via Field-Programmable Gate Array Parallelism
- Title(参考訳): フィールドプログラマブルゲートアレイ並列処理によるテンソルネットワークアルゴリズムの計算コストスケーリング低減
- Authors: Songtai Lv, Yang Liang, Rui Zhu, Qibin Zheng, Haiyuan Zou,
- Abstract要約: フィールドプログラマブルゲートアレイ(FPGA)はモンテカルロ法のようなアルゴリズムの計算スケーリングを改善するために最近利用されている。
2つの代表テンソルネットワークアルゴリズムの計算効率を大幅に向上させるために,FPGAを用いた並列テンソルネットワークの設計を提案する。
- 参考スコア(独自算出の注目度): 2.801791858783479
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Improving the computational efficiency of quantum many-body calculations from a hardware perspective remains a critical challenge. Although field-programmable gate arrays (FPGAs) have recently been exploited to improve the computational scaling of algorithms such as Monte Carlo methods, their application to tensor network algorithms is still at an early stage. In this work, we propose a fine-grained parallel tensor network design based on FPGAs to substantially enhance the computational efficiency of two representative tensor network algorithms: the infinite time-evolving block decimation (iTEBD) and the higher-order tensor renormalization group (HOTRG). By employing a quad-tile partitioning strategy to decompose tensor elements and map them onto hardware circuits, our approach effectively translates algorithmic computational complexity into scalable hardware resource utilization, enabling an extremely high degree of parallelism on FPGAs. Compared with conventional CPU-based implementations, our scheme exhibits superior scalability in computation time, reducing the bond-dimension scaling of the computational cost from $O(D_b^3)$ to $O(D_b)$ for iTEBD and from $O(D_b^6)$ to $O(D_b^2)$ for HOTRG. This work provides a theoretical foundation for future hardware implementations of large-scale tensor network computations.
- Abstract(参考訳): ハードウェアの観点から量子多体計算の計算効率を向上させることは、依然として重要な課題である。
フィールドプログラマブルゲートアレイ(FPGA)はモンテカルロ法のようなアルゴリズムの計算スケーリングを改善するために最近利用されているが、テンソルネットワークアルゴリズムへの応用はまだ初期段階にある。
本研究では,FPGAをベースとした並列テンソルネットワークの設計手法を提案する。これは,無限時間進化ブロックデシメーション (iTEBD) と高次テンソル再正規化群 (HOTRG) の2つの代表テンソルネットワークアルゴリズムの計算効率を大幅に向上させる。
クアッドタイル分割方式を用いてテンソル要素を分解しハードウェア回路にマッピングすることにより,アルゴリズム計算の複雑さをスケーラブルなハードウェアリソース利用に効果的に変換し,FPGA上での並列性を大幅に向上する。
従来のCPUベースの実装と比較して計算時間に優れたスケーラビリティを示し,計算コストを$O(D_b^3)$から$O(D_b)$,$O(D_b^6)$から$O(D_b^2)$に削減した。
この研究は、大規模テンソルネットワーク計算の将来のハードウェア実装の理論的基盤を提供する。
関連論文リスト
- Optimizing Tensor Network Partitioning using Simulated Annealing [0.0]
テンソルネットワークは、例えば古典的な(強く相関した)量子システムのシミュレーションにおいて、貴重なツールであることが証明されている。
システムのサイズが大きくなるにつれて、より大きなテンソルネットワークの契約は計算的に要求されるようになる。
計算コストとメモリコストは、選択したパーティショニング戦略に非常に敏感であるため、複数のノードに効率的に収縮タスクを分散することが重要である。
論文 参考訳(メタデータ) (2025-07-28T09:43:01Z) - An Efficient Algorithm for Modulus Operation and Its Hardware Implementation in Prime Number Calculation [0.0]
提案アルゴリズムは加算演算,減算演算,論理演算,ビットシフト演算のみを用いる。
暗号化アプリケーションにおけるスケーラビリティの課題に対処する。
このアルゴリズムを50,000までの素数計算に適用すると、実用性と性能上の利点が示される。
論文 参考訳(メタデータ) (2024-07-17T13:24:52Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Quantum Circuit Optimization with AlphaTensor [47.9303833600197]
我々は,所定の回路を実装するために必要なTゲート数を最小化する手法であるAlphaTensor-Quantumを開発した。
Tカウント最適化の既存の方法とは異なり、AlphaTensor-Quantumは量子計算に関するドメイン固有の知識を取り入れ、ガジェットを活用することができる。
注目すべきは、有限体における乗法であるカラツバの手法に似た効率的なアルゴリズムを発見することである。
論文 参考訳(メタデータ) (2024-02-22T09:20:54Z) - Many-body computing on Field Programmable Gate Arrays [5.3808713424582395]
我々は、量子多体計算を行うために、FPGA(Field Programmable Gate Arrays)の機能を利用する。
これにより、モンテカルロアルゴリズムのCPUベースの計算に比べて10倍の高速化が達成された。
FPGAを多体基底状態計算のための典型的なテンソルネットワークアルゴリズムの高速化に利用した。
論文 参考訳(メタデータ) (2024-02-09T14:01:02Z) - All-to-all reconfigurability with sparse and higher-order Ising machines [0.0]
オール・ツー・オールのネットワーク機能をエミュレートする多重アーキテクチャを導入する。
適応並列テンパリングアルゴリズムの実行は、競合するアルゴリズムと事前ファクターの利点を示す。
pビットIMのスケールされた磁気バージョンは、汎用最適化のための最先端技術よりも桁違いに改善される可能性がある。
論文 参考訳(メタデータ) (2023-11-21T20:27:02Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Matching Pursuit Based Scheduling for Over-the-Air Federated Learning [67.59503935237676]
本稿では,フェデレートラーニング手法を用いて,オーバー・ザ・エアラーニングのための低複雑さデバイススケジューリングアルゴリズムのクラスを開発する。
最先端の提案方式と比較すると,提案方式は極めて低効率なシステムである。
提案手法の有効性は,CIFARデータセットを用いた実験により確認した。
論文 参考訳(メタデータ) (2022-06-14T08:14:14Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。