論文の概要: Quantum-enhanced neural networks in the neural tangent kernel framework
- arxiv url: http://arxiv.org/abs/2109.03786v1
- Date: Wed, 8 Sep 2021 17:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 20:35:19.235267
- Title: Quantum-enhanced neural networks in the neural tangent kernel framework
- Title(参考訳): ニューラルタンジェントカーネルフレームワークにおける量子強化ニューラルネットワーク
- Authors: Kouhei Nakaji, Hiroyuki Tezuka, Naoki Yamamoto
- Abstract要約: 近年,量子ニューラルネットワークや量子古典ニューラルネットワーク(QCNN)が盛んに研究されている。
本稿では,NTK理論を直接適用可能なQCNNのクラスについて検討する。
提案したQCNNの出力は、CNN部分の多数のノードの限界において、投影された量子カーネルの関数である。
- 参考スコア(独自算出の注目度): 0.9404723842159504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently quantum neural networks or quantum-classical neural networks (QCNN)
have been actively studied, as a possible alternative to the conventional
classical neural network (CNN), but their practical and
theoretically-guaranteed performance is still to be investigated. On the other
hand, CNNs and especially the deep CNNs, have acquired several solid
theoretical basis; one of those significant basis is the neural tangent kernel
(NTK) theory, which indeed can successfully explain the mechanism of various
desirable properties of CNN, e.g., global convergence and good generalization
properties. In this paper, we study a class of QCNN where NTK theory can be
directly applied. The output of the proposed QCNN is a function of the
projected quantum kernel, in the limit of large number of nodes of the CNN
part; hence this scheme may have a potential quantum advantage. Also, because
the parameters can be tuned only around the initial random variables chosen
from unitary 2-design and Gaussian distributions, the proposed QCNN casts as a
scheme that realizes the quantum kernel method with less computational
complexity. Moreover, NTK is identical to the covariance matrix of a Gaussian
process, which allows us to analytically study the learning process and as a
consequence to have a condition of the dataset such that QCNN may perform
better than the classical correspondence. These properties are all observed in
a thorough numerical experiment.
- Abstract(参考訳): 近年、従来の古典的ニューラルネットワーク(CNN)の代替として量子ニューラルネットワークや量子古典的ニューラルネットワーク(QCNN)が活発に研究されているが、その実用的、理論的に保証された性能はまだ検討されていない。
一方、CNN、特に深層CNNは、いくつかの確固たる理論的基礎を得た。その重要な基礎の1つは神経接核(NTK)理論であり、これはCNNの様々な望ましい性質、例えば、大域収束と良い一般化特性のメカニズムをうまく説明できる。
本稿では,NTK理論を直接適用可能なQCNNのクラスについて検討する。
提案したQCNNの出力は、CNN部分の多数のノードの限界において、投影された量子カーネルの関数である。
また、パラメータはユニタリな2-設計とガウス分布から選択された初期確率変数の周りでしか調整できないため、提案するqcnnは計算複雑性の少ない量子カーネル法を実現するスキームである。
さらに、ntk はガウス過程の共分散行列と同一であり、学習過程を解析的に研究することができ、その結果、qcnn が古典的対応よりも優れた性能を発揮するようなデータセットの状態を持つことができる。
これらの性質はすべて、徹底的な数値実験で観察される。
関連論文リスト
- Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。