論文の概要: On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.13239v1
- Date: Sat, 26 Feb 2022 22:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 07:02:08.055987
- Title: On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks
- Title(参考訳): オンチップQNN:量子ニューラルネットワークの効率的なオンチップトレーニングを目指して
- Authors: Hanrui Wang and Zirui Li and Jiaqi Gu and Yongshan Ding and David Z.
Pan and Song Han
- Abstract要約: そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,チップ上でのトレーニングは90%以上,60%以上の精度で達成できた。
- 参考スコア(独自算出の注目度): 21.833693982056896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum Neural Network (QNN) is drawing increasing research interest thanks
to its potential to achieve quantum advantage on near-term Noisy Intermediate
Scale Quantum (NISQ) hardware. In order to achieve scalable QNN learning, the
training process needs to be offloaded to real quantum machines instead of
using exponential-cost classical simulators. One common approach to obtain QNN
gradients is parameter shift whose cost scales linearly with the number of
qubits. We present On-chip QNN, the first experimental demonstration of
practical on-chip QNN training with parameter shift. Nevertheless, we find that
due to the significant quantum errors (noises) on real machines, gradients
obtained from naive parameter shift have low fidelity and thus degrade the
training accuracy. To this end, we further propose probabilistic gradient
pruning to firstly identify gradients with potentially large errors and then
remove them. Specifically, small gradients have larger relative errors than
large ones, thus having a higher probability to be pruned. We perform extensive
experiments on 5 classification tasks with 5 real quantum machines. The results
demonstrate that our on-chip training achieves over 90% and 60% accuracy for
2-class and 4-class image classification tasks. The probabilistic gradient
pruning brings up to 7% QNN accuracy improvements over no pruning. Overall, we
successfully obtain similar on-chip training accuracy compared with noise-free
simulation but have much better training scalability. The code for parameter
shift on-chip training is available in the TorchQuantum library.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)ハードウェアにおける量子優位性を実現する可能性から、研究の関心が高まっている。
スケーラブルなQNN学習を実現するには、指数的コストの古典シミュレータを使用する代わりに、トレーニングプロセスを実際の量子マシンにオフロードする必要がある。
QNN勾配を得るための一般的なアプローチは、コストがキュービット数と線形にスケールするパラメータシフトである。
そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
それにもかかわらず,実マシンの量子誤差(ノイズ)が大きいため,naiveパラメータシフトから得られる勾配は忠実度が低く,トレーニング精度が低下することがわかった。
この目的のために,我々は,まず,潜在的な大きな誤差を伴う勾配を識別し,その後除去するために,確率的勾配プルーニングを提案する。
具体的には、小さな勾配は大きな勾配よりも大きな相対誤差を持つため、刈り取られる確率が高い。
5台の量子マシンで5つの分類タスクを広範囲に実験した。
その結果,on-chipトレーニングは2クラスおよび4クラスの画像分類タスクにおいて90%,60%の精度を達成できた。
確率的勾配プルーニングは、プルーニングなしでQNNの精度を7%向上させる。
全体としては,ノイズフリーシミュレーションと比較して同様のオンチップトレーニング精度を得ることができたが,トレーニングスケーラビリティははるかに向上した。
パラメータシフトオンチップトレーニングのコードは、TorchQuantumライブラリで利用できる。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - Quantum Deep Equilibrium Models [1.5853439776721878]
本稿では,量子機械学習モデルのパラメータを学習するトレーニングパラダイムであるQuantum Deep Equilibrium Models (QDEQ)を紹介する。
QDEQは、既存の同等のベースラインモデルと競合するだけでなく、5倍以上のレイヤを持つネットワークよりも高いパフォーマンスを実現している。
このことは、QDEQパラダイムが与えられたタスクに対してより浅い量子回路を開発するのに利用できることを示している。
論文 参考訳(メタデータ) (2024-10-31T13:54:37Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Improving Parameter Training for VQEs by Sequential Hamiltonian Assembly [4.646930308096446]
量子機械学習における中心的な課題は、パラメータ化量子回路(PQC)の設計と訓練である。
局所成分を用いて損失関数を反復的に近似する逐次ハミルトンアセンブリを提案する。
提案手法は,従来のパラメータトレーニングを29.99%,実証的手法であるレイヤワイズラーニングを5.12%,平均精度を5.12%向上させる。
論文 参考訳(メタデータ) (2023-12-09T11:47:32Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping [60.086820254217336]
近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
論文 参考訳(メタデータ) (2022-12-22T13:23:19Z) - Mode connectivity in the loss landscape of parameterized quantum
circuits [1.7546369508217283]
パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
論文 参考訳(メタデータ) (2021-11-09T18:28:46Z) - QuantumNAS: Noise-Adaptive Search for Robust Quantum Circuits [26.130594925642143]
ノイズノイズは、NISQ(Noisy Intermediate-Scale Quantum)コンピュータにおける鍵となる課題である。
可変回路と量子ビットマッピングのノイズ適応型共同研究のための,最初の包括的なフレームワークであるQuantumNASを提案し,実験的に実装した。
QMLタスクでは、QuantumNASは95%以上の2クラス、85%の4クラス、実際の量子コンピュータ上での10クラスの分類精度を初めて証明した。
論文 参考訳(メタデータ) (2021-07-22T17:58:13Z) - Optimal training of variational quantum algorithms without barren
plateaus [0.0]
変分量子アルゴリズム(VQA)は、短期量子コンピュータの効率的な利用を約束する。
量子状態学習のためのVQAを最適に訓練する方法を示す。
量子機械学習におけるガウスカーネルの応用を提案する。
論文 参考訳(メタデータ) (2021-04-29T17:54:59Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。