論文の概要: Toward Trainability of Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2011.06258v2
- Date: Sat, 5 Dec 2020 04:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 07:47:46.319086
- Title: Toward Trainability of Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークのトレーサビリティを目指して
- Authors: Kaining Zhang, Min-Hsiu Hsieh, Liu Liu, Dacheng Tao
- Abstract要約: 量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
- 参考スコア(独自算出の注目度): 87.04438831673063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Neural Networks (QNNs) have been recently proposed as generalizations
of classical neural networks to achieve the quantum speed-up. Despite the
potential to outperform classical models, serious bottlenecks exist for
training QNNs; namely, QNNs with random structures have poor trainability due
to the vanishing gradient with rate exponential to the input qubit number. The
vanishing gradient could seriously influence the applications of large-size
QNNs. In this work, we provide a viable solution with theoretical guarantees.
Specifically, we prove that QNNs with tree tensor and step controlled
architectures have gradients that vanish at most polynomially with the qubit
number. We numerically demonstrate QNNs with tree tensor and step controlled
structures for the application of binary classification. Simulations show
faster convergent rates and better accuracy compared to QNNs with random
structures.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として最近提案されている。
すなわち、ランダムな構造を持つqnnは、入力キュービット数に指数関数的な速度で消滅する勾配のため、訓練能力が不十分である。
消滅する勾配は大規模QNNの応用に大きな影響を与える可能性がある。
この研究において、理論的保証のある実行可能なソリューションを提供する。
具体的には、木テンソルとステップ制御アーキテクチャを持つQNNが、最も多項式的に量子ビット数で消える勾配を持つことを示す。
木テンソルとステップ制御構造を持つQNNを数値的に2進分類に適用する。
シミュレーションでは、ランダム構造を持つQNNと比較して収束率と精度が向上している。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。