論文の概要: The exact evaluation of hexagonal spin-networks and topological quantum
neural networks
- arxiv url: http://arxiv.org/abs/2310.03632v1
- Date: Thu, 5 Oct 2023 16:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 15:30:40.517239
- Title: The exact evaluation of hexagonal spin-networks and topological quantum
neural networks
- Title(参考訳): 六角形スピンネットワークとトポロジカル量子ニューラルネットワークの正確な評価
- Authors: Matteo Lulli, Antonino Marciano and Emanuele Zappala
- Abstract要約: 本稿では,スピンネットワーク間の物理的スカラー積の評価アルゴリズムを提案する。
本研究では,古典的および量子的再結合によるスピンネットワークのある種のクラスにおける評価の挙動について検討する。
- 参考スコア(独自算出の注目度): 0.5919433278490629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The physical scalar product between spin-networks has been shown to be a
fundamental tool in the theory of topological quantum neural networks (TQNN),
which are quantum neural networks previously introduced by the authors in the
context of quantum machine learning. However, the effective evaluation of the
scalar product remains a bottleneck for the applicability of the theory. We
introduce an algorithm for the evaluation of the physical scalar product
defined by Noui and Perez between spin-network with hexagonal shape. By means
of recoupling theory and the properties of the Haar integration we obtain an
efficient algorithm, and provide several proofs regarding the main steps. We
investigate the behavior of the TQNN evaluations on certain classes of
spin-networks with the classical and quantum recoupling. All results can be
independently reproduced through the ``idea.deploy"
framework~\href{https://github.com/lullimat/idea.deploy}{\nolinkurl{https://github.com/lullimat/idea.deploy}}
- Abstract(参考訳): スピンネットワーク間の物理的スカラー積は、量子機械学習の文脈で著者が以前に導入した量子ニューラルネットワークであるトポロジカル量子ニューラルネットワーク(TQNN)の理論において、基本的なツールであることが示されている。
しかし、スカラー生成物の効果的評価は、理論の適用可能性のボトルネックである。
本稿では,スピンネットワークとヘキサゴナル形状の間でnouiとperezが定義した物理スカラー積の評価アルゴリズムを提案する。
理論の再結合とハール積分の性質により、効率的なアルゴリズムが得られ、主要なステップに関するいくつかの証明が提供される。
スピンネットワークのある種のクラスにおけるTQNN評価の挙動を古典的および量子的再結合を用いて検討する。
すべての結果は ``idea.deploy" framework~\href{https://github.com/lullimat/idea.deploy}{\nolinkurl{https://github.com/lullimat/idea.deploy}} によって独立に再生できる。
関連論文リスト
- Neural network representation of quantum systems [0.0]
我々は、幅広い種類の量子力学系をニューラルネットワークの形でキャストできる新しいマップを提供する。
我々の発見は、機械学習を量子の世界に近づける。
論文 参考訳(メタデータ) (2024-03-18T02:20:22Z) - Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Why Quantization Improves Generalization: NTK of Binary Weight Neural
Networks [33.08636537654596]
ニューラルネットワークにおける二分重みを、ラウンドリングの下でのランダム変数とみなし、ニューラルネットワークの異なる層上での分布伝搬について検討する。
本研究では,連続パラメータとスムーズなアクティベーション関数を持つニューラルネットワークである分布伝搬を近似する準ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T06:11:21Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Generalization Study of Quantum Neural Network [11.502747203515954]
一般化はニューラルネットワークの重要な特徴であり、それについて多くの研究がなされている。
量子ゲートによって構築された量子ニューラルネットワークのクラスについて検討した。
我々のモデルは、同じ構造を持つ古典的ニューラルネットワークよりも優れた一般化を持つ。
論文 参考訳(メタデータ) (2020-06-02T06:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。