論文の概要: Efficient classical computation of the neural tangent kernel of quantum neural networks
- arxiv url: http://arxiv.org/abs/2508.04498v1
- Date: Wed, 06 Aug 2025 14:48:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.770157
- Title: Efficient classical computation of the neural tangent kernel of quantum neural networks
- Title(参考訳): 量子ニューラルネットワークのニューラル・タンジェント・カーネルの効率的な古典計算
- Authors: Anderson Melchor Hernandez, Davide Pastorello, Giacomo De Palma,
- Abstract要約: 広帯域の量子ニューラルネットワークに付随するニューラル・タンジェント・カーネル(NTK)を推定する効率的なアルゴリズムを提案する。
これらのネットワークは、任意のハミルトニアンによって生成される時間進化によって与えられるパラメトリックゲートとインターリーブされた任意のユニタリ作用素からなる。
- 参考スコア(独自算出の注目度): 3.7498611358320733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an efficient classical algorithm to estimate the Neural Tangent Kernel (NTK) associated with a broad class of quantum neural networks. These networks consist of arbitrary unitary operators belonging to the Clifford group interleaved with parametric gates given by the time evolution generated by an arbitrary Hamiltonian belonging to the Pauli group. The proposed algorithm leverages a key insight: the average over the distribution of initialization parameters in the NTK definition can be exactly replaced by an average over just four discrete values, chosen such that the corresponding parametric gates are Clifford operations. This reduction enables an efficient classical simulation of the circuit. Combined with recent results establishing the equivalence between wide quantum neural networks and Gaussian processes [Girardi \emph{et al.}, Comm. Math. Phys. 406, 92 (2025); Melchor Hernandez \emph{et al.}, arXiv:2412.03182], our method enables efficient computation of the expected output of wide, trained quantum neural networks, and therefore shows that such networks cannot achieve quantum advantage.
- Abstract(参考訳): 本稿では,広帯域の量子ニューラルネットワークに付随するニューラル・タンジェント・カーネル(NTK)を推定する,効率的な古典的アルゴリズムを提案する。
これらのネットワークは、クリフォード群に属する任意のユニタリ作用素と、パウリ群に属する任意のハミルトニアンによって生成される時間進化によって与えられるパラメトリックゲートをインターリーブした。
NTK定義における初期化パラメータの分布平均は、対応するパラメトリックゲートがクリフォード演算となるように選択された4つの離散値の平均に正確に置き換えることができる。
この還元により、回路の効率的な古典的シミュレーションが可能になる。
広帯域量子ニューラルネットワークとガウス過程 [Girardi \emph{et al } の等価性を確立する最近の結果と組み合わせた。
数学。
Phys
406, 92 (2025); Melchor Hernandez \emph{et al }, arXiv:2412.03182], この方法では、広帯域で訓練された量子ニューラルネットワークの期待出力の効率的な計算が可能であり、そのようなネットワークが量子的優位性を達成できないことを示す。
関連論文リスト
- Quantum-Enhanced Weight Optimization for Neural Networks Using Grover's Algorithm [0.0]
本稿では,古典的NNの重み付けを最適化するために量子コンピューティングを提案する。
我々は、NNの最適パラメータの探索を高速化するために、Groverの量子探索アルゴリズムのインスタンスを設計する。
提案手法は,他のQNN手法と比較して,より少ない量子ビットを必要とする。
論文 参考訳(メタデータ) (2025-04-20T10:59:04Z) - Quantum Graph Convolutional Networks Based on Spectral Methods [10.250921033123152]
Graph Convolutional Networks (GCN) は、グラフ構造化データからの特徴抽出のための特殊なニューラルネットワークである。
本稿では、量子コンピューティング技術を統合することで、スペクトル法に基づくGCNの強化を提案する。
論文 参考訳(メタデータ) (2025-03-09T05:08:15Z) - Challenges and opportunities in the supervised learning of quantum
circuit outputs [0.0]
ディープニューラルネットワークは、関連するランダム量子回路の出力特性を予測できることが証明されている。
変動量子アルゴリズムでよく使用される回路の出力期待値を予測するために,ニューラルネットワークがどの程度の精度で学習できるかを検討する。
論文 参考訳(メタデータ) (2024-02-07T16:10:13Z) - Universal Approximation Theorem and error bounds for quantum neural networks and quantum reservoirs [2.07180164747172]
ここでは、関数の特定のクラスに対して正確な誤差境界を提供し、これらの結果をランダム化された量子回路の興味深い新しいセットアップに拡張する。
特に, $mathcalO(varepsilon-2)$ weights および $mathcalO(lceil log_2(varepsilon-1) rceil)$ qubits suffices を用いて, 積分フーリエ変換で関数を近似すると, 精度が $varepsilon>0$ となることを示す。
論文 参考訳(メタデータ) (2023-07-24T15:52:33Z) - Riemannian quantum circuit optimization for Hamiltonian simulation [2.1227079314039057]
ハミルトンシミュレーションは量子コンピューティングの自然な応用である。
翻訳不変系では、そのような回路トポロジのゲートは古典的なコンピュータでさらに最適化することができる。
一次元格子上のイジングとハイゼンベルクのモデルに対して、我々は桁違いの精度の向上を達成する。
論文 参考訳(メタデータ) (2022-12-15T00:00:17Z) - Iterative Qubit Coupled Cluster using only Clifford circuits [36.136619420474766]
古典的に容易に生成できる理想的な状態準備プロトコルを特徴付けることができる。
繰り返し量子ビット結合クラスタ(iQCC)の変種を導入して,これらの要件を満たす手法を提案する。
本研究では, チタン系化合物Ti(C5H5)(CH3)3と (20, 20) 活性空間の複雑な系に研究を拡張した。
論文 参考訳(メタデータ) (2022-11-18T20:31:10Z) - Automatic and effective discovery of quantum kernels [41.61572387137452]
量子コンピューティングは、カーネルマシンが量子カーネルを利用してデータ間の類似度を表現できるようにすることで、機械学習モデルを強化することができる。
本稿では,ニューラルアーキテクチャ検索やAutoMLと同じような最適化手法を用いて,この問題に対するアプローチを提案する。
その結果、高エネルギー物理問題に対する我々のアプローチを検証した結果、最良のシナリオでは、手動設計のアプローチに関して、テストの精度を一致または改善できることが示された。
論文 参考訳(メタデータ) (2022-09-22T16:42:14Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - A single $T$-gate makes distribution learning hard [56.045224655472865]
この研究は、局所量子回路の出力分布の学習可能性に関する広範な評価を提供する。
ハイブリッド量子古典アルゴリズムを含む多種多様な学習アルゴリズムにおいて、深度$d=omega(log(n))$ Clifford回路に関連する生成的モデリング問題さえも困難であることを示す。
論文 参考訳(メタデータ) (2022-07-07T08:04:15Z) - Quantum-enhanced neural networks in the neural tangent kernel framework [0.4394730767364254]
量子データエンコーダとcNNを組み合わせたqcNNのクラスについて検討する。
cNNの番号ノードが無限に大きくなるNTK状態において、qcNN全体の出力は、いわゆる射影量子カーネルの非線形関数となる。
論文 参考訳(メタデータ) (2021-09-08T17:16:23Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Searching for Low-Bit Weights in Quantized Neural Networks [129.8319019563356]
低ビットの重みとアクティベーションを持つ量子ニューラルネットワークは、AIアクセラレータを開発する上で魅力的なものだ。
本稿では、任意の量子化ニューラルネットワークにおける離散重みを探索可能な変数とみなし、差分法を用いて正確に探索する。
論文 参考訳(メタデータ) (2020-09-18T09:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。