論文の概要: Deep Quantum Neural Networks are Gaussian Process
- arxiv url: http://arxiv.org/abs/2305.12664v1
- Date: Mon, 22 May 2023 03:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:46:24.968029
- Title: Deep Quantum Neural Networks are Gaussian Process
- Title(参考訳): 深層量子ニューラルネットワークはガウス過程である
- Authors: Ali Rad
- Abstract要約: 1/d$展開を用いて閉形式関係における有限幅の影響を調べる枠組みを提案する。
量子ニューラルタンジェントカーネル(QNTK)を特徴とするGPとそのパラメータ空間の等価性について解明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The overparameterization of variational quantum circuits, as a model of
Quantum Neural Networks (QNN), not only improves their trainability but also
serves as a method for evaluating the property of a given ansatz by
investigating their kernel behavior in this regime. In this study, we shift our
perspective from the traditional viewpoint of training in parameter space into
function space by employing the Bayesian inference in the Reproducing Kernel
Hilbert Space (RKHS). We observe the influence of initializing parameters using
random Haar distribution results in the QNN behaving similarly to a Gaussian
Process (QNN-GP) at wide width or, empirically, at a deep depth. This outcome
aligns with the behaviors observed in classical neural networks under similar
circumstances with Gaussian initialization. Moreover, we present a framework to
examine the impact of finite width in the closed-form relationship using a $
1/d$ expansion, where $d$ represents the dimension of the circuit's Hilbert
space. The deviation from Gaussian output can be monitored by introducing new
quantum meta-kernels. Furthermore, we elucidate the relationship between GP and
its parameter space equivalent, characterized by the Quantum Neural Tangent
Kernels (QNTK). This study offers a systematic way to study QNN behavior in
over- and under-parameterized scenarios, based on the perturbation method, and
addresses the limitations of tracking the gradient descent methods for
higher-order corrections like dQNTK and ddQNTK. Additionally, this
probabilistic viewpoint lends itself naturally to accommodating noise within
our model.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)のモデルとしての変分量子回路の過度パラメータ化は、トレーニング性を向上するだけでなく、カーネルの動作を調査して与えられたアンザッツの特性を評価する方法としても機能する。
本研究では,パラメータ空間における学習の伝統的な視点から,再生ケルネルヒルベルト空間(RKHS)におけるベイズ推論を用いて,関数空間への視点をシフトする。
広帯域のガウス過程(QNN-GP)や深度での実験的に類似した動作を示すQNNにおけるランダムなハール分布を用いた初期化パラメータの影響を観察する。
この結果は、ガウス初期化と似た状況下で古典的ニューラルネットワークで観測される行動と一致する。
さらに,回路のヒルベルト空間の次元を表す$1/d$展開を用いて,閉形式関係における有限幅の影響を調べる枠組みを提案する。
ガウス出力からの偏差は、新しい量子メタカーネルを導入することで監視できる。
さらに,量子神経接核(qntk)を特徴とするgpとパラメータ空間の等価性との関係を明らかにする。
本研究は,摂動法に基づく過小評価シナリオにおけるqnnの挙動を体系的に研究する方法を提供し,dqntkやddqntkのような高次補正のための勾配降下法を追跡する限界に対処する。
さらに、この確率論的視点は、自然にモデル内のノイズを調節するのに役立ちます。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Neural Networks Asymptotic Behaviours for the Resolution of Inverse
Problems [0.0]
本稿では,畳み込み逆問題に対するニューラルネットワーク(NN)手法の有効性について検討する。
NNのパラメータの非線形性を無視できるGaussian Processs(GP)に対応するNNの制限について検討する。
格子上のモンテカルロ法でシミュレートされた量子調和振動子の場合、デコンボリューション逆問題に対処する。
論文 参考訳(メタデータ) (2024-02-14T17:42:24Z) - Wide Neural Networks as Gaussian Processes: Lessons from Deep
Equilibrium Models [16.07760622196666]
本研究では,層間における共有重み行列を持つ無限深度ニューラルネットワークであるDeep equilibrium Model (DEQ)について検討する。
解析により,DEC層の幅が無限大に近づくにつれ,ガウス過程に収束することが明らかとなった。
注目すべきは、この収束は深さと幅の限界が交換されても成り立つことである。
論文 参考訳(メタデータ) (2023-10-16T19:00:43Z) - Quantum neural networks form Gaussian processes [0.0]
量子ニューラルネットワーク(QNN)の類似性を証明する。
ハールランダムユニタリあるいはディープQNNに基づくある種のモデルの出力は、大きなヒルベルト空間次元$d$の極限でガウス過程に収束することを示す。
論文 参考訳(メタデータ) (2023-05-17T05:32:45Z) - Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - Chaos and Complexity from Quantum Neural Network: A study with Diffusion
Metric in Machine Learning [0.0]
量子ニューラルネットワーク(QNN)の機械学習力学における量子カオス現象と複雑性について検討する。
統計的および微分幾何学的手法を用いてQNNの学習理論を研究する。
論文 参考訳(メタデータ) (2020-11-16T10:41:47Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。