論文の概要: Toward Trainability of Deep Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2112.15002v2
- Date: Mon, 26 Sep 2022 10:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 21:20:27.465868
- Title: Toward Trainability of Deep Quantum Neural Networks
- Title(参考訳): 深層量子ニューラルネットワークのトレーサビリティに向けて
- Authors: Kaining Zhang and Min-Hsiu Hsieh and Liu Liu and Dacheng Tao
- Abstract要約: ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
- 参考スコア(独自算出の注目度): 87.04438831673063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum Neural Networks (QNNs) with random structures have poor trainability
due to the exponentially vanishing gradient as the circuit depth and the qubit
number increase. This result leads to a general belief that a deep QNN will not
be feasible. In this work, we provide the first viable solution to the
vanishing gradient problem for deep QNNs with theoretical guarantees.
Specifically, we prove that for circuits with controlled-layer architectures,
the expectation of the gradient norm can be lower bounded by a value that is
independent of the qubit number and the circuit depth. Our results follow from
a careful analysis of the gradient behaviour on parameter space consisting of
rotation angles, as employed in almost any QNNs, instead of relying on
impractical 2-design assumptions. We explicitly construct examples where only
our QNNs are trainable and converge, while others in comparison cannot.
- Abstract(参考訳): ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
この結果は、深いQNNが実現できないという一般的な信念につながります。
本研究では,理論的な保証のある深部QNNに対して,消滅する勾配問題の解法を初めて提供する。
具体的には、制御層構造を持つ回路の場合、勾配ノルムの期待値は、量子ビット数と回路深さに依存しない値で下界できることを示す。
その結果, ほとんどすべてのqnnで用いられているように, パラメータ空間の勾配挙動を, 非実用的な2-デザインの仮定に頼るのではなく, 注意深く解析した。
QNNだけがトレーニング可能で収束可能な例を明示的に構築しています。
関連論文リスト
- Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Gaussian initializations help deep variational quantum circuits escape
from the barren plateau [87.04438831673063]
近年、変分量子回路は量子シミュレーションや量子機械学習に広く用いられている。
しかし、ランダムな構造を持つ量子回路は、回路深さと量子ビット数に関して指数関数的に消える勾配のため、トレーニング容易性が低い。
この結果、ディープ量子回路は実用的なタスクでは実現できないという一般的な信念が導かれる。
論文 参考訳(メタデータ) (2022-03-17T15:06:40Z) - Theory of overparametrization in quantum neural networks [0.0]
周期構造を持つ量子ニューラルネットワーク(QNN)における過パラメトリゼーション現象を厳密に解析する。
この結果から、QNN の生成元から得られるリー代数の次元は、$M_c$ の上界であることが分かる。
次に、過パラメータ化の概念をQNNキャパシティに結びつけることにより、QNNが過パラメータ化されると、そのキャパシティはその最大値を達成する。
論文 参考訳(メタデータ) (2021-09-23T22:39:48Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。