論文の概要: On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.13239v1
- Date: Sat, 26 Feb 2022 22:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 07:02:08.055987
- Title: On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks
- Title(参考訳): オンチップQNN:量子ニューラルネットワークの効率的なオンチップトレーニングを目指して
- Authors: Hanrui Wang and Zirui Li and Jiaqi Gu and Yongshan Ding and David Z.
Pan and Song Han
- Abstract要約: そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,チップ上でのトレーニングは90%以上,60%以上の精度で達成できた。
- 参考スコア(独自算出の注目度): 21.833693982056896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum Neural Network (QNN) is drawing increasing research interest thanks
to its potential to achieve quantum advantage on near-term Noisy Intermediate
Scale Quantum (NISQ) hardware. In order to achieve scalable QNN learning, the
training process needs to be offloaded to real quantum machines instead of
using exponential-cost classical simulators. One common approach to obtain QNN
gradients is parameter shift whose cost scales linearly with the number of
qubits. We present On-chip QNN, the first experimental demonstration of
practical on-chip QNN training with parameter shift. Nevertheless, we find that
due to the significant quantum errors (noises) on real machines, gradients
obtained from naive parameter shift have low fidelity and thus degrade the
training accuracy. To this end, we further propose probabilistic gradient
pruning to firstly identify gradients with potentially large errors and then
remove them. Specifically, small gradients have larger relative errors than
large ones, thus having a higher probability to be pruned. We perform extensive
experiments on 5 classification tasks with 5 real quantum machines. The results
demonstrate that our on-chip training achieves over 90% and 60% accuracy for
2-class and 4-class image classification tasks. The probabilistic gradient
pruning brings up to 7% QNN accuracy improvements over no pruning. Overall, we
successfully obtain similar on-chip training accuracy compared with noise-free
simulation but have much better training scalability. The code for parameter
shift on-chip training is available in the TorchQuantum library.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)ハードウェアにおける量子優位性を実現する可能性から、研究の関心が高まっている。
スケーラブルなQNN学習を実現するには、指数的コストの古典シミュレータを使用する代わりに、トレーニングプロセスを実際の量子マシンにオフロードする必要がある。
QNN勾配を得るための一般的なアプローチは、コストがキュービット数と線形にスケールするパラメータシフトである。
そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
それにもかかわらず,実マシンの量子誤差(ノイズ)が大きいため,naiveパラメータシフトから得られる勾配は忠実度が低く,トレーニング精度が低下することがわかった。
この目的のために,我々は,まず,潜在的な大きな誤差を伴う勾配を識別し,その後除去するために,確率的勾配プルーニングを提案する。
具体的には、小さな勾配は大きな勾配よりも大きな相対誤差を持つため、刈り取られる確率が高い。
5台の量子マシンで5つの分類タスクを広範囲に実験した。
その結果,on-chipトレーニングは2クラスおよび4クラスの画像分類タスクにおいて90%,60%の精度を達成できた。
確率的勾配プルーニングは、プルーニングなしでQNNの精度を7%向上させる。
全体としては,ノイズフリーシミュレーションと比較して同様のオンチップトレーニング精度を得ることができたが,トレーニングスケーラビリティははるかに向上した。
パラメータシフトオンチップトレーニングのコードは、TorchQuantumライブラリで利用できる。
関連論文リスト
- Trade-off between Gradient Measurement Efficiency and Expressivity in Deep Quantum Neural Networks [0.0]
量子ニューラルネットワーク(QNN)は、実用的な量子優位性を達成するために効率的なトレーニングアルゴリズムを必要とする。
一般的なQNNには効率的な勾配測定アルゴリズムが欠けており、スケーラブルなQNNを実現するための基本的で実践的な課題となっている。
本稿では, 安定器-論理積アンサッツ (SLPA) と呼ばれる一般QNNアンサッツを提案する。
論文 参考訳(メタデータ) (2024-06-26T12:59:37Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Can Noise on Qubits Be Learned in Quantum Neural Network? A Case Study
on QuantumFlow [25.408147000243158]
本論文は、別の角度からノイズ問題に取り組むことを目的としている。
一般量子アルゴリズムのための完全量子ビットを作成する代わりに、専用アルゴリズムのノイズ問題を緩和する可能性について検討する。
本稿では、量子ニューラルネットワーク(QNN)を対象とし、トレーニングフェーズにおける誤りを学習し、識別されたQNNモデルがノイズに耐性を持つようにすることを提案する。
論文 参考訳(メタデータ) (2021-09-08T04:43:12Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。