論文の概要: Fast and memory-efficient classical simulation of quantum machine learning via forward and backward gate fusion
- arxiv url: http://arxiv.org/abs/2603.02804v1
- Date: Tue, 03 Mar 2026 09:43:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.741965
- Title: Fast and memory-efficient classical simulation of quantum machine learning via forward and backward gate fusion
- Title(参考訳): 前方・後方ゲート融合による量子機械学習の高速・メモリ効率古典シミュレーション
- Authors: Yoshiaki Kawase,
- Abstract要約: 本稿では,スループットを向上させるために,各前方経路と後方経路に連続ゲートを融合させる手法を提案する。
ハードウェア効率の良いAnsatzを12ドル以上のキュービットで約20ドルで改善し、メモリ帯域幅が制限されたミドルレンジの消費者向けGPUで30ドル以上の改善を実現しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While real quantum devices have been increasingly used to conduct research focused on achieving quantum advantage or quantum utility in recent years, executing deep quantum circuits or performing quantum machine learning with large-scale data on current noisy intermediate-scale quantum devices remains challenging, making classical simulation essential for quantum machine learning research. However, classical simulation often suffers from the cost of gradient calculations, requiring enormous memory or computational time. In this paper, to address these problems, we propose a method to fuse multiple consecutive gates in each of the forward and backward paths to improve throughput by minimizing global memory accesses. As a result, we achieved approximately $20$ times throughput improvement for a Hardware-Efficient Ansatz with $12$ or more qubits, reaching over $30$ times improvement on a mid-range consumer GPU with limited memory bandwidth. By combining our proposed method with gradient checkpointing, we drastically reduce memory usage, making it possible to train a large-scale quantum machine learning model, a $20$-qubit, $1,000$-layer model with $60,000$ parameters, using $1,000$ samples in approximately $20$ minutes. This implies that we can train the model on large datasets, consisting of tens of thousands of samples, such as MNIST or CIFAR-10, within a realistic time frame (e.g., $20$ hours per epoch). In this way, our proposed method drastically accelerates classical simulation of quantum machine learning, making a significant contribution to quantum machine learning research and variational quantum algorithms, such as verifying algorithms on large datasets or investigating learning theories of deep quantum circuits like barren plateau.
- Abstract(参考訳): 近年、量子優位性や量子ユーティリティの実現、深層量子回路の実行、現在のノイズの多い中間規模量子デバイス上の大規模データによる量子機械学習の実行に焦点を絞った研究がますます行われているが、量子機械学習の研究には古典的なシミュレーションが不可欠である。
しかし、古典的なシミュレーションはしばしば勾配計算のコストに悩まされ、膨大なメモリや計算時間を必要とする。
本稿では,これらの問題に対処するため,グローバルメモリアクセスを最小化してスループットを向上させるために,各前方経路と後方経路に複数のゲートを融合する手法を提案する。
その結果、ハードウェア効率の良いAnsatzを12ドル以上のキュービットで約20ドル以上のスループット向上を実現し、メモリ帯域幅が制限されたミドルレンジのコンシューマGPUで30ドル以上の改善を実現しました。
提案手法と勾配チェックポイントを組み合わせることで、メモリ使用量を大幅に削減し、約20ドル分で1,000ドルのサンプルを使用して、20ドルキュービット、1,000ドルのパラメータを持つ大規模量子機械学習モデルのトレーニングが可能になる。
これは、MNISTやCIFAR-10など数万のサンプルからなる大規模なデータセット上で、現実的な時間フレーム(例えば、エポックあたり20ドル時間)でモデルをトレーニングできることを意味しています。
このようにして、提案手法は量子機械学習の古典的シミュレーションを劇的に加速し、大規模なデータセット上でのアルゴリズム検証やバレンプラトーのような深層量子回路の学習理論の検証など、量子機械学習の研究や変分量子アルゴリズムに多大な貢献をする。
関連論文リスト
- phase2: Full-State Vector Simulation of Quantum Time Evolution at Scale [0.8223023312645978]
量子コンピュータの大規模古典シミュレーションは、量子アルゴリズムのベンチマークに不可欠である。
パウリ作用素の列を囲む回転層のHPCシミュレーションを行うために,実状態ベクトルシミュレーションアルゴリズムとソフトウェア実装を提案する。
論文 参考訳(メタデータ) (2025-04-24T18:41:23Z) - Augmenting Simulated Noisy Quantum Data Collection by Orders of Magnitude Using Pre-Trajectory Sampling with Batched Execution [47.60253809426628]
提案手法は,誤差型を調整して軌道シミュレーションの効率化と有効性を高めることを目的としている。
私たちはそれぞれ100兆枚と100万枚という膨大なデータセットを生成します。
論文 参考訳(メタデータ) (2025-04-22T22:36:18Z) - Train on classical, deploy on quantum: scaling generative quantum machine learning to a thousand qubits [0.27309692684728604]
量子回路に基づく瞬時生成モデルは,古典的ハードウェア上で効率的に学習可能であることを示す。
データ依存型パラメータ初期化戦略と組み合わせることで、不規則な高原の問題に遭遇することはない。
量子モデルは高次元データからうまく学習でき、単純なエネルギーベースの古典的生成モデルと比較して驚くほどよく機能する。
論文 参考訳(メタデータ) (2025-03-04T19:00:02Z) - Efficient Quantum Circuit Compilation for Near-Term Quantum Advantage [17.38734393793605]
本稿では,ターゲット量子回路をレンガ壁配置に近似的にコンパイルする手法を提案する。
この新しい回路設計は、実際の量子コンピュータで直接実装できる2量子CNOTゲートで構成されている。
論文 参考訳(メタデータ) (2025-01-13T15:04:39Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [62.46800898243033]
量子学習理論の最近の進歩は、様々な古典的な入力によって生成された測定データから、大きな量子ビット回路の線形特性を効率的に学習できるのか?
我々は、小さな予測誤差を達成するためには、$d$で線形にスケーリングするサンプルの複雑さが必要であることを証明し、それに対応する計算複雑性は、dで指数関数的にスケールする可能性がある。
そこで本研究では,古典的影と三角展開を利用したカーネルベースの手法を提案し,予測精度と計算オーバーヘッドとのトレードオフを制御可能とした。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Towards practical and massively parallel quantum computing emulation for
quantum chemistry [10.095945254794906]
量子コンピューティングは初期の段階を超えて、化学・生物医学の商業的応用を模索している。
量子アルゴリズムを開発し、量子ハードウェアを検証するために、古典的なコンピュータ上で量子コンピューティングをエミュレートすることが重要である。
本稿では,行列積状態に基づく高性能かつ大規模に並列な量子固有解法シミュレータについて述べる。
論文 参考訳(メタデータ) (2023-03-07T06:44:18Z) - Field-deployable Quantum Memory for Quantum Networking [62.72060057360206]
実世界の展開とスケーリングの課題に対応するために設計された量子メモリを提示する。
メモリ技術は、温かいルビジウム蒸気を記憶媒体として利用し、室温で動作する。
我々は,高忠実度検索(95%)と低演算誤差(10-2)$を,単一光子レベルの量子メモリ操作に対して160$mu s$の記憶時間で示す。
論文 参考訳(メタデータ) (2022-05-26T00:33:13Z) - Quantum Semi-Supervised Kernel Learning [4.726777092009554]
本稿では,セミスーパービジョンカーネル支援ベクトルマシンを学習するための量子機械学習アルゴリズムを提案する。
完全教師付き量子LS-SVMと同じスピードアップを維持していることを示す。
論文 参考訳(メタデータ) (2022-04-22T13:39:55Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。