論文の概要: Storage capacity and learning capability of quantum neural networks
- arxiv url: http://arxiv.org/abs/2011.06113v2
- Date: Fri, 27 Nov 2020 22:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 11:33:25.113400
- Title: Storage capacity and learning capability of quantum neural networks
- Title(参考訳): 量子ニューラルネットワークの記憶容量と学習能力
- Authors: Maciej Lewenstein, Aikaterini Gratsea, Andreu Riera-Campeny, Albert
Aloy, Valentin Kasper, Anna Sanpera
- Abstract要約: 完全正のトレース保存(CPTP)マップとして記述された量子ニューラルネットワーク(QNN)の記憶容量について検討した。
我々は、QNNが最大$N$の線形独立な純状態を保存することを実証し、対応する写像の構造を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the storage capacity of quantum neural networks (QNNs) described as
completely positive trace preserving (CPTP) maps, which act on an
$N$-dimensional Hilbert space. We demonstrate that QNNs can store up to $N$
linearly independent pure states and provide the structure of the corresponding
maps. While the storage capacity of a classical Hopfield network scales
linearly with the number of neurons, we show that QNNs can store an exponential
number of linearly independent states. We estimate, employing the Gardner
program, the relative volume of CPTP maps with $M$ stationary states. The
volume decreases exponentially with $M$ and shrinks to zero for $M\geq N+1$. We
generalize our results to QNNs storing mixed states as well as input-output
relations for feed-forward QNNs. Our approach opens the path to relate storage
properties of QNNs to the quantum properties of the input-output states. This
paper is dedicated to the memory of Peter Wittek.
- Abstract(参考訳): 我々は、完全正のトレース保存(cptp)写像として記述される量子ニューラルネットワーク(qnns)の記憶容量を調べ、n$-次元ヒルベルト空間に作用する。
我々はQNNが最大$N$の線形独立な純状態を保存することを実証し、対応する写像の構造を提供する。
古典的なホップフィールドネットワークの記憶容量はニューロンの数に線形にスケールするが、qnnは指数関数的に独立な状態の数を格納できることを示した。
我々はGardnerプログラムを用いることで、CPTPマップの相対体積をM$の定常状態で推定する。
体積は$M$で指数関数的に減少し、$M\geq N+1$で0に縮まる。
本研究の結果は、混合状態を格納したQNNとフィードフォワードQNNの入力出力関係に一般化される。
提案手法は,QNNの記憶特性と入力出力状態の量子特性を関連付ける経路を開く。
この論文はPeter Wittekの思い出に捧げられている。
関連論文リスト
- Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Entanglement entropy production in Quantum Neural Networks [0.0]
量子ニューラルネットワーク(QNN)は、ノイズ中間量子コンピュータ(NISQ)時代に量子優位性を達成するための候補と考えられている。
任意のQNNアーキテクチャにおいて、絡み合いが生成される速度に対して、普遍的な振舞いを示す。
本稿では,QNNにおける絡み合い生成を特徴付ける新しい指標として,絡み合いの速度について紹介する。
論文 参考訳(メタデータ) (2022-06-06T10:17:17Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Parametrized constant-depth quantum neuron [56.51261027148046]
本稿では,カーネルマシンをベースとした量子ニューロン構築フレームワークを提案する。
ここでは、指数的に大きい空間にテンソル積特徴写像を適用するニューロンについて述べる。
パラメトリゼーションにより、提案されたニューロンは、既存のニューロンが適合できない基礎となるパターンを最適に適合させることができることが判明した。
論文 参考訳(メタデータ) (2022-02-25T04:57:41Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Quantum reservoir computing using arrays of Rydberg atoms [1.2652031472297414]
我々は、脳内の神経回路のよく知られたモデルであるリカレントニューラルネットワーク(RNN)の量子バージョンを紹介する。
我々の量子RNN(qRNN)は、相互作用するスピン-1/2粒子のアンサンブルの自然ハミルトン力学を計算の手段として利用する。
我々は、qRNNがマルチタスク、意思決定、長期記憶などの認知的タスクの学習を複製できることを実際に示している。
論文 参考訳(メタデータ) (2021-11-22T02:45:18Z) - Theory of overparametrization in quantum neural networks [0.0]
周期構造を持つ量子ニューラルネットワーク(QNN)における過パラメトリゼーション現象を厳密に解析する。
この結果から、QNN の生成元から得られるリー代数の次元は、$M_c$ の上界であることが分かる。
次に、過パラメータ化の概念をQNNキャパシティに結びつけることにより、QNNが過パラメータ化されると、そのキャパシティはその最大値を達成する。
論文 参考訳(メタデータ) (2021-09-23T22:39:48Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。