論文の概要: On the learnability of quantum neural networks
- arxiv url: http://arxiv.org/abs/2007.12369v1
- Date: Fri, 24 Jul 2020 06:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 08:36:48.141961
- Title: On the learnability of quantum neural networks
- Title(参考訳): 量子ニューラルネットワークの学習性について
- Authors: Yuxuan Du and Min-Hsiu Hsieh and Tongliang Liu and Shan You and
Dacheng Tao
- Abstract要約: 本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
- 参考スコア(独自算出の注目度): 132.1981461292324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the learnability of the quantum neural network (QNN) built on the
variational hybrid quantum-classical scheme, which remains largely unknown due
to the non-convex optimization landscape, the measurement error, and the
unavoidable gate errors introduced by noisy intermediate-scale quantum (NISQ)
machines. Our contributions in this paper are multi-fold. First, we derive the
utility bounds of QNN towards empirical risk minimization, and show that large
gate noise, few quantum measurements, and deep circuit depth will lead to the
poor utility bounds. This result also applies to the variational quantum
circuits with gradient-based classical optimization, and can be of independent
interest. We then prove that QNN can be treated as a differentially private
(DP) model. Thirdly, we show that if a concept class can be efficiently learned
by QNN, then it can also be effectively learned by QNN even with gate noise.
This result implies the same learnability of QNN whether it is implemented on
noiseless or noisy quantum machines. We last exhibit that the quantum
statistical query (QSQ) model can be effectively simulated by noisy QNN. Since
the QSQ model can tackle certain tasks with runtime speedup, our result
suggests that the modified QNN implemented on NISQ devices will retain the
quantum advantage. Numerical simulations support the theoretical results.
- Abstract(参考訳): 非凸最適化環境、測定誤差、ノイズの多い中間スケール量子(nisq)マシンによって引き起こされる不可避なゲートエラーにより、ほとんど未知のままである変分ハイブリッド量子古典スキームに基づく量子ニューラルネットワーク(qnn)の学習可能性を検討する。
この論文における私たちの貢献は多様です。
まず、qnnの実用限界を経験的リスク最小化に向けて導出し、大きなゲートノイズ、量子測定の少なさ、深い回路深さが実用限界の低さにつながることを示す。
この結果は勾配に基づく古典的最適化を持つ変分量子回路にも当てはまり、独立した関心を持つことができる。
次に、QNNが微分プライベート(DP)モデルとして扱われることを証明する。
第3に,概念クラスをQNNで効率的に学習できれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
この結果は、QNNがノイズなしまたはノイズの多い量子マシンに実装されているかどうかを同じ学習可能性を示している。
最後に、量子統計クエリ(QSQ)モデルがノイズQNNによって効果的にシミュレート可能であることを示す。
この結果から,NISQ デバイスに実装された改良 QNN が量子的優位性を維持することが示唆された。
数値シミュレーションは理論結果を支持する。
関連論文リスト
- Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data [0.0]
分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化することができる。
本稿では,sp-QCNNが従来のQCNNと同等の分類精度を達成でき,必要な測定資源を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-06-12T18:00:08Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Evaluating the performance of sigmoid quantum perceptrons in quantum
neural networks [0.0]
量子機械学習のための有望なアーキテクチャとして量子ニューラルネットワーク(QNN)が提案されている。
1つの候補は古典的パーセプトロンの非線形活性化関数をエミュレートするために設計された量子パーセプトロンである。
本稿では,SQPネットワークの性能と性能を,その有効次元と有効容量の計算によって評価する。
論文 参考訳(メタデータ) (2022-08-12T10:08:11Z) - Entanglement entropy production in Quantum Neural Networks [0.0]
量子ニューラルネットワーク(QNN)は、ノイズ中間量子コンピュータ(NISQ)時代に量子優位性を達成するための候補と考えられている。
任意のQNNアーキテクチャにおいて、絡み合いが生成される速度に対して、普遍的な振舞いを示す。
本稿では,QNNにおける絡み合い生成を特徴付ける新しい指標として,絡み合いの速度について紹介する。
論文 参考訳(メタデータ) (2022-06-06T10:17:17Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Towards understanding the power of quantum kernels in the NISQ era [79.8341515283403]
量子カーネルの利点は,大規模データセット,計測回数の少ないもの,システムノイズなどにおいて消失することを示した。
我々の研究は、NISQデバイス上で量子優位性を得るための先進量子カーネルの探索に関する理論的ガイダンスを提供する。
論文 参考訳(メタデータ) (2021-03-31T02:41:36Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。