論文の概要: Absence of Barren Plateaus in Quantum Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2011.02966v2
- Date: Mon, 1 Nov 2021 14:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:48:56.496259
- Title: Absence of Barren Plateaus in Quantum Convolutional Neural Networks
- Title(参考訳): 量子畳み込みニューラルネットワークにおける不規則高原の欠如
- Authors: Arthur Pesah, M. Cerezo, Samson Wang, Tyler Volkoff, Andrew T.
Sornborger, Patrick J. Coles
- Abstract要約: 量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural networks (QNNs) have generated excitement around the
possibility of efficiently analyzing quantum data. But this excitement has been
tempered by the existence of exponentially vanishing gradients, known as barren
plateau landscapes, for many QNN architectures. Recently, Quantum Convolutional
Neural Networks (QCNNs) have been proposed, involving a sequence of
convolutional and pooling layers that reduce the number of qubits while
preserving information about relevant data features. In this work we rigorously
analyze the gradient scaling for the parameters in the QCNN architecture. We
find that the variance of the gradient vanishes no faster than polynomially,
implying that QCNNs do not exhibit barren plateaus. This provides an analytical
guarantee for the trainability of randomly initialized QCNNs, which highlights
QCNNs as being trainable under random initialization unlike many other QNN
architectures. To derive our results we introduce a novel graph-based method to
analyze expectation values over Haar-distributed unitaries, which will likely
be useful in other contexts. Finally, we perform numerical simulations to
verify our analytical results.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、量子データを効率的に分析する可能性に興奮を引き起こしている。
しかし、この興奮は、多くのqnnアーキテクチャにおいて、barren plateau landscapesとして知られる指数関数的に消失する勾配の存在によって温められている。
近年、量子畳み込みニューラルネットワーク(qcnns)が提案されており、関連するデータ特徴に関する情報を保存しながら量子ビット数を削減する畳み込み層とプール層が連なる。
本研究では,qcnnアーキテクチャにおけるパラメータの勾配スケーリングを厳密に解析する。
勾配のばらつきは多項式よりも早く消えることが分かり、QCNNが不規則な高原を示さないことが示唆された。
これは、他の多くのQNNアーキテクチャとは異なり、ランダムに初期化されたQCNNのトレーニング可能性に関する分析的な保証を提供する。
本研究の結果を導出するために,Haar分散ユニタリに対する期待値を解析するグラフベースの新しい手法を導入する。
最後に,解析結果を検証するために数値シミュレーションを行う。
関連論文リスト
- Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - GHN-Q: Parameter Prediction for Unseen Quantized Convolutional
Architectures via Graph Hypernetworks [80.29667394618625]
我々は,未知の量子化CNNアーキテクチャのパラメータの予測にグラフハイパーネットを用いることを初めて検討した。
我々は、CNNの探索空間の縮小に着目し、GHN-Qが実際に8ビットの量子化されたCNNの量子化-ロバストパラメータを予測できることを見出した。
論文 参考訳(メタデータ) (2022-08-26T08:00:02Z) - Entanglement entropy production in Quantum Neural Networks [0.0]
量子ニューラルネットワーク(QNN)は、ノイズ中間量子コンピュータ(NISQ)時代に量子優位性を達成するための候補と考えられている。
任意のQNNアーキテクチャにおいて、絡み合いが生成される速度に対して、普遍的な振舞いを示す。
本稿では,QNNにおける絡み合い生成を特徴付ける新しい指標として,絡み合いの速度について紹介する。
論文 参考訳(メタデータ) (2022-06-06T10:17:17Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Theory of overparametrization in quantum neural networks [0.0]
周期構造を持つ量子ニューラルネットワーク(QNN)における過パラメトリゼーション現象を厳密に解析する。
この結果から、QNN の生成元から得られるリー代数の次元は、$M_c$ の上界であることが分かる。
次に、過パラメータ化の概念をQNNキャパシティに結びつけることにより、QNNが過パラメータ化されると、そのキャパシティはその最大値を達成する。
論文 参考訳(メタデータ) (2021-09-23T22:39:48Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。