論文の概要: Physics Simulation Via Quantum Graph Neural Network
- arxiv url: http://arxiv.org/abs/2301.04702v1
- Date: Wed, 11 Jan 2023 20:21:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:55:37.117838
- Title: Physics Simulation Via Quantum Graph Neural Network
- Title(参考訳): 量子グラフニューラルネットワークによる物理シミュレーション
- Authors: Benjamin Collis, Saahil Patel, Daniel Koch, Massimiliano Cutugno,
Laura Wessing, and Paul M. Alsing
- Abstract要約: 量子グラフニューラルネットワーク(QGNN)の2つの実現法を開発し,実装する。
最初のQGNNは、古典的な情報として重ね合わせ状態を直接実装する能力に依存する投機的量子古典的ハイブリッド学習モデルである。
2つ目は量子古典的ハイブリッド学習モデルで、RX$回転ゲートのパラメータを通して直接粒子情報を伝播する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop and implement two realizations of quantum graph neural networks
(QGNN), applied to the task of particle interaction simulation. The first QGNN
is a speculative quantum-classical hybrid learning model that relies on the
ability to directly implement superposition states as classical information to
propagate information between particles, while the second is a feasible
quantum-classical hybrid learning model that propagates particle information
directly through the parameters of $RX$ rotation gates. A classical graph
neural network (CGNN) is also trained in the same task. Both the speculative
QGNN and CGNN act as controls against the feasible QGNN. Comparison between
classical and quantum models is based on the loss value and the accuracy of
each model throughout training. Overall, the performance of each model is
highly similar. Each of the three models has a high learning efficiency, in
which the loss value rapidly approaches zero during training. Contrarily, the
accuracy of each model is poor. In relative terms, the learning efficiency of
the feasible QGNN is highest, and it has a greater accuracy than the CGNN
during training; however, their measured accuracies become identical when
tested on a validation data set. These outcomes suggests that the feasible QGNN
has a potential advantage over the CGNN. Additionally, we show that a slight
alteration in hyperparameters notably improves accuracy, suggesting that
further fine tuning these could mitigate the issue of high inaccuracy.
- Abstract(参考訳): 本稿では,量子グラフニューラルネットワーク(QGNN)の2つの実現法を開発し,粒子相互作用シミュレーションの課題に適用する。
第1QGNNは、古典的な情報として重ね合わせ状態を直接実装し、粒子間で情報を伝達する投機的量子古典ハイブリッド学習モデルであり、第2QGNNは、RX$回転ゲートのパラメータを介して直接粒子情報を伝播する実行可能な量子古典ハイブリッド学習モデルである。
従来のグラフニューラルネットワーク(CGNN)も同じタスクでトレーニングされている。
投機的QGNNとCGNNはどちらも実現可能なQGNNに対する制御として機能する。
古典モデルと量子モデルの比較は、トレーニングを通して各モデルの損失値と精度に基づいている。
全体として、各モデルの性能は極めてよく似ている。
3つのモデルはそれぞれ高い学習効率を持ち、トレーニング中に損失値が急速にゼロに近づく。
対照的に、各モデルの精度は低い。
相対的に言えば、実現可能なqgnnの学習効率は高く、トレーニング中のcgnnよりも高い精度を持つが、検証データセットでテストすると、測定された精度は同一になる。
これらの結果は、実現可能なQGNNがCGNNに対して潜在的に有利であることを示している。
さらに,ハイパーパラメータのわずかな変更により精度が向上し,さらなる微調整により精度の低下が生じる可能性が示唆された。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - A Comparison Between Invariant and Equivariant Classical and Quantum Graph Neural Networks [3.350407101925898]
グラフニューラルネットワーク(GNN)のような深層幾何学的手法は、高エネルギー物理学における様々なデータ解析タスクに活用されている。
典型的なタスクはジェットタグであり、ジェットは異なる特徴とそれらの構成粒子間のエッジ接続を持つ点雲と見なされる。
本稿では,古典的グラフニューラルネットワーク(GNN)と,その量子回路との公平かつ包括的な比較を行う。
論文 参考訳(メタデータ) (2023-11-30T16:19:13Z) - Hybrid quantum-classical graph neural networks for tumor classification
in digital pathology [2.682579230647868]
我々は、GNNと変分量子(VQC)を組み合わせたハイブリッド量子グラフニューラルネットワーク(GNN)を作成し、乳癌のサブタイピングにおけるバイナリサブタスクを分類する。
その結果、ハイブリッド量子ニューラルネットワーク(QNN)は、重み付き精度、リコール、F1スコアの観点から、最先端の古典的グラフニューラルネットワーク(GNN)と同等であることが示された。
論文 参考訳(メタデータ) (2023-10-17T15:40:26Z) - GHN-Q: Parameter Prediction for Unseen Quantized Convolutional
Architectures via Graph Hypernetworks [80.29667394618625]
我々は,未知の量子化CNNアーキテクチャのパラメータの予測にグラフハイパーネットを用いることを初めて検討した。
我々は、CNNの探索空間の縮小に着目し、GHN-Qが実際に8ビットの量子化されたCNNの量子化-ロバストパラメータを予測できることを見出した。
論文 参考訳(メタデータ) (2022-08-26T08:00:02Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Exploring Quantum Perceptron and Quantum Neural Network structures with
a teacher-student scheme [0.0]
量子カーネル法や量子ニューラルネットワーク(QNN)のような量子機械学習モデルを構築し、分類タスクを実行するために、短期量子デバイスを使用することができる。
本研究の目的は、異なるQNNアーキテクチャを体系的に比較し、その相対表現力と教師-学生間のスキームを評価することである。
我々は特に、Tacchino et. al. citeTacchino1の最近の研究に触発された量子パーセプトロンモデルに注目し、もともとP'erez-Salinas et. al. citeによって導入されたデータ再ロードスキームと比較する。
論文 参考訳(メタデータ) (2021-05-04T13:13:52Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。