論文の概要: Quantum-enhanced neural networks in the neural tangent kernel framework
- arxiv url: http://arxiv.org/abs/2109.03786v2
- Date: Thu, 4 May 2023 20:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 18:09:43.330802
- Title: Quantum-enhanced neural networks in the neural tangent kernel framework
- Title(参考訳): ニューラルタンジェントカーネルフレームワークにおける量子強化ニューラルネットワーク
- Authors: Kouhei Nakaji, Hiroyuki Tezuka, Naoki Yamamoto
- Abstract要約: 量子データエンコーダと古典的cNNを組み合わせた量子ニューラルネットワーク(qcNN)のクラスについて検討する。
qcNNは、量子データ生成プロセスの学習の問題に対して、完全に古典的なNNやqNNよりも明確な優位性を示している。
- 参考スコア(独自算出の注目度): 0.9404723842159504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, quantum neural networks or quantum-classical neural networks (qcNN)
have been actively studied, as a possible alternative to the conventional
classical neural network (cNN), but their practical and
theoretically-guaranteed performance is still to be investigated. In contrast,
cNNs and especially deep cNNs, have acquired several solid theoretical basis;
one of those basis is the neural tangent kernel (NTK) theory, which can
successfully explain the mechanism of various desirable properties of cNNs,
particularly the global convergence in the training process. In this paper, we
study a class of qcNN composed of a quantum data-encoder followed by a cNN. The
quantum part is randomly initialized according to unitary 2-designs, which is
an effective feature extraction process for quantum states, and the classical
part is also randomly initialized according to Gaussian distributions; then, in
the NTK regime where the number of nodes of the cNN becomes infinitely large,
the output of the entire qcNN becomes a nonlinear function of the so-called
projected quantum kernel. That is, the NTK theory is used to construct an
effective quantum kernel, which is in general nontrivial to design. Moreover,
NTK defined for the qcNN is identical to the covariance matrix of a Gaussian
process, which allows us to analytically study the learning process and as a
consequence to have a condition of the dataset such that qcNN may perform
better than classical counterparts. These properties are investigated in
thorough numerical experiments; particularly, we demonstrate that the qcNN
shows a clear advantage over fully classical NNs and qNNs for the problem of
learning the quantum data-generating process.
- Abstract(参考訳): 近年、従来の古典的ニューラルネットワーク(cnn)の代替として量子ニューラルネットワークや量子古典的ニューラルネットワーク(qcnn)が積極的に研究されているが、その実用的かつ理論的に保証された性能はまだ検討されていない。
対照的に、cNN、特に深部cNNは、いくつかの堅固な理論的基礎を得た。その基盤の1つは、cNNの様々な望ましい性質、特に訓練過程におけるグローバル収束のメカニズムをうまく説明できる神経タンジェントカーネル(NTK)理論である。
本稿では,量子データエンコーダとcNNを組み合わせたqcNNのクラスについて検討する。
量子部分は、量子状態の効果的な特徴抽出プロセスであるユニタリ2-設計に従ってランダムに初期化され、古典的部分はガウス分布に従ってランダムに初期化され、次に、cNNのノード数が無限に大きくなるNTK状態において、qcNN全体の出力は、いわゆる射影量子カーネルの非線形関数となる。
つまり、ntk理論は、一般的に設計に非自明な効果的な量子カーネルを構築するために用いられる。
さらに、qcNNで定義されたNTKはガウス過程の共分散行列と同一であり、学習過程を解析的に研究することができ、その結果、qcNNが古典的プロセスよりも優れた性能を発揮するようなデータセットの状態が得られる。
これらの特性は徹底的な数値実験で研究され、特に量子データ生成過程の学習において、qcNNが完全古典的NNやqNNよりも明確な優位性を示すことを示す。
関連論文リスト
- Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。