論文の概要: Deep Neural Networks as the Semi-classical Limit of Quantum Neural
Networks
- arxiv url: http://arxiv.org/abs/2007.00142v2
- Date: Thu, 12 Aug 2021 16:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 01:07:02.851519
- Title: Deep Neural Networks as the Semi-classical Limit of Quantum Neural
Networks
- Title(参考訳): 量子ニューラルネットワークの半古典的限界としてのディープニューラルネットワーク
- Authors: Antonino Marciano, Deen Chen, Filippo Fabrocini*, Chris Fields, Enrico
Greco*, Niels Gresnigt, Krid Jinklub, Matteo Lulli, Kostas Terzidis, and
Emanuele Zappala
- Abstract要約: 量子ニューラルネットワーク(QNN)は、スピンネットにマッピングできる。
Deep Neural Networks (DNN)はQNNのサブケースである。
トポロジカル量子場理論(TQFT)の用語を用いて機械学習(ML)キー概念を記述できる
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our work intends to show that: (1) Quantum Neural Networks (QNN) can be
mapped onto spinnetworks, with the consequence that the level of analysis of
their operation can be carried out on the side of Topological Quantum Field
Theories (TQFT); (2) Deep Neural Networks (DNN) are a subcase of QNN, in the
sense that they emerge as the semiclassical limit of QNN; (3) A number of
Machine Learning (ML) key-concepts can be rephrased by using the terminology of
TQFT. Our framework provides as well a working hypothesis for understanding the
generalization behavior of DNN, relating it to the topological features of the
graphs structures involved.
- Abstract(参考訳): 本研究は,(1)量子ニューラルネットワーク(qnn)をスピンネットワーク上にマッピングし,その動作解析のレベルを位相量子場理論(tqft)の側で行うことができること,(2)深層ニューラルネットワーク(dnn)はqnnの半古典的限界として出現するという意味でqnnのサブケースであること,(3)tqftの用語を用いて多くの機械学習(ml)キーコンセプタを再現できること,などを示すことを目的とする。
我々のフレームワークは、DNNの一般化挙動を理解するための作業仮説も提供し、関連するグラフ構造のトポロジ的特徴と関連付けている。
関連論文リスト
- From Graphs to Qubits: A Critical Review of Quantum Graph Neural Networks [56.51893966016221]
量子グラフニューラルネットワーク(QGNN)は、量子コンピューティングとグラフニューラルネットワーク(GNN)の新たな融合を表す。
本稿では,QGNNの現状を批判的にレビューし,様々なアーキテクチャを探求する。
我々は、高エネルギー物理学、分子化学、ファイナンス、地球科学など多種多様な分野にまたがる応用について論じ、量子的優位性の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-12T22:53:14Z) - Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Deep Neural Networks as the Semi-classical Limit of Topological Quantum Neural Networks: The problem of generalisation [0.3871780652193725]
本稿では,Deep Neural Networksにおける一般化問題を理解するために,このフレームワークを提案する。
この種のフレームワークは、トレーニングステップ中のディープニューラルネットワークの過剰適合挙動と、それに対応する一般化能力を説明する。
開発した新しいアルゴリズムを適用し、標準的なニューラルネットワークと同様の結果を得るが、トレーニングは必要としないことを示す。
論文 参考訳(メタデータ) (2022-10-25T03:14:59Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - Quantum-enhanced neural networks in the neural tangent kernel framework [0.4394730767364254]
量子データエンコーダとcNNを組み合わせたqcNNのクラスについて検討する。
cNNの番号ノードが無限に大きくなるNTK状態において、qcNN全体の出力は、いわゆる射影量子カーネルの非線形関数となる。
論文 参考訳(メタデータ) (2021-09-08T17:16:23Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Statistical Tests and Confidential Intervals as Thresholds for Quantum
Neural Networks [0.0]
我々は、最小二乗量子ニューラルネットワーク(LS-QNN)、対応する量子ニューラルネットワーク(PI-QNN)、回帰量子ニューラルネットワーク(PR-QNN)、およびカイ二乗量子ニューラルネットワーク(chi2$-QNN)を分析し、構築する。
対応するトレーニングルールのしきい値として、ソリューションやテストを使用します。
論文 参考訳(メタデータ) (2020-01-30T05:41:04Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。