論文の概要: QOC: Quantum On-Chip Training with Parameter Shift and Gradient Pruning
- arxiv url: http://arxiv.org/abs/2202.13239v3
- Date: Mon, 27 Jan 2025 20:09:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 23:24:44.289674
- Title: QOC: Quantum On-Chip Training with Parameter Shift and Gradient Pruning
- Title(参考訳): QOC:パラメータシフトとグラディエントプルーニングによる量子オンチップトレーニング
- Authors: Hanrui Wang, Zirui Li, Jiaqi Gu, Yongshan Ding, David Z. Pan, Song Han,
- Abstract要約: パラメータシフトを用いた実践的PQCトレーニングの初回実験であるQOCについて述べる。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,オンチップトレーニングが90%以上,60%以上の精度で達成できることが示唆された。
- 参考スコア(独自算出の注目度): 18.939312562621634
- License:
- Abstract: Parameterized Quantum Circuits (PQC) are drawing increasing research interest thanks to its potential to achieve quantum advantages on near-term Noisy Intermediate Scale Quantum (NISQ) hardware. In order to achieve scalable PQC learning, the training process needs to be offloaded to real quantum machines instead of using exponential-cost classical simulators. One common approach to obtain PQC gradients is parameter shift whose cost scales linearly with the number of qubits. We present QOC, the first experimental demonstration of practical on-chip PQC training with parameter shift. Nevertheless, we find that due to the significant quantum errors (noises) on real machines, gradients obtained from naive parameter shift have low fidelity and thus degrading the training accuracy. To this end, we further propose probabilistic gradient pruning to firstly identify gradients with potentially large errors and then remove them. Specifically, small gradients have larger relative errors than large ones, thus having a higher probability to be pruned. We perform extensive experiments with the Quantum Neural Network (QNN) benchmarks on 5 classification tasks using 5 real quantum machines. The results demonstrate that our on-chip training achieves over 90% and 60% accuracy for 2-class and 4-class image classification tasks. The probabilistic gradient pruning brings up to 7% PQC accuracy improvements over no pruning. Overall, we successfully obtain similar on-chip training accuracy compared with noise-free simulation but have much better training scalability. The QOC code is available in the TorchQuantum library.
- Abstract(参考訳): パラメータ化量子回路(PQC)は、近未来のノイズ中間スケール量子(NISQ)ハードウェアにおける量子優位性を実現する可能性から、研究の関心が高まっている。
スケーラブルなPQC学習を実現するには、指数的コストの古典シミュレータを使用する代わりに、トレーニングプロセスを実際の量子マシンにオフロードする必要がある。
PQC勾配を得るための一般的なアプローチは、コストがキュービットの数と線形にスケールするパラメータシフトである。
パラメータシフトを用いた実践的PQCトレーニングの初回実験であるQOCについて述べる。
しかし, 実機における量子誤差(ノイズ)が大きいため, 主パラメータシフトから得られる勾配は忠実度が低く, 訓練精度が低下することが判明した。
この目的のために,確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
具体的には、小さな勾配は大きな勾配よりも大きな相対誤差を持つため、刈り取られる確率が高い。
我々は,5つの実量子マシンを用いた5つの分類タスクについて,量子ニューラルネットワーク(QNN)ベンチマークで広範な実験を行った。
その結果,2クラス,4クラスの画像分類作業において,オンチップトレーニングが90%以上,60%以上の精度で達成できることが示唆された。
確率的勾配プルーニングにより、プルーニングなしでは7%のPQC精度が向上する。
全体として、ノイズフリーシミュレーションと比較して、同様のトレーニング精度を得ることができたが、トレーニングのスケーラビリティははるかに向上した。
QOCコードはTorchQuantumライブラリで入手できる。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - Quantum Deep Equilibrium Models [1.5853439776721878]
本稿では,量子機械学習モデルのパラメータを学習するトレーニングパラダイムであるQuantum Deep Equilibrium Models (QDEQ)を紹介する。
QDEQは、既存の同等のベースラインモデルと競合するだけでなく、5倍以上のレイヤを持つネットワークよりも高いパフォーマンスを実現している。
このことは、QDEQパラダイムが与えられたタスクに対してより浅い量子回路を開発するのに利用できることを示している。
論文 参考訳(メタデータ) (2024-10-31T13:54:37Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Improving Parameter Training for VQEs by Sequential Hamiltonian Assembly [4.646930308096446]
量子機械学習における中心的な課題は、パラメータ化量子回路(PQC)の設計と訓練である。
局所成分を用いて損失関数を反復的に近似する逐次ハミルトンアセンブリを提案する。
提案手法は,従来のパラメータトレーニングを29.99%,実証的手法であるレイヤワイズラーニングを5.12%,平均精度を5.12%向上させる。
論文 参考訳(メタデータ) (2023-12-09T11:47:32Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping [60.086820254217336]
近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
論文 参考訳(メタデータ) (2022-12-22T13:23:19Z) - Mode connectivity in the loss landscape of parameterized quantum
circuits [1.7546369508217283]
パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
論文 参考訳(メタデータ) (2021-11-09T18:28:46Z) - QuantumNAS: Noise-Adaptive Search for Robust Quantum Circuits [26.130594925642143]
ノイズノイズは、NISQ(Noisy Intermediate-Scale Quantum)コンピュータにおける鍵となる課題である。
可変回路と量子ビットマッピングのノイズ適応型共同研究のための,最初の包括的なフレームワークであるQuantumNASを提案し,実験的に実装した。
QMLタスクでは、QuantumNASは95%以上の2クラス、85%の4クラス、実際の量子コンピュータ上での10クラスの分類精度を初めて証明した。
論文 参考訳(メタデータ) (2021-07-22T17:58:13Z) - Optimal training of variational quantum algorithms without barren
plateaus [0.0]
変分量子アルゴリズム(VQA)は、短期量子コンピュータの効率的な利用を約束する。
量子状態学習のためのVQAを最適に訓練する方法を示す。
量子機械学習におけるガウスカーネルの応用を提案する。
論文 参考訳(メタデータ) (2021-04-29T17:54:59Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。