論文の概要: Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data
- arxiv url: http://arxiv.org/abs/2306.07331v1
- Date: Mon, 12 Jun 2023 18:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 16:18:12.444272
- Title: Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data
- Title(参考訳): 翻訳対称データ学習のための量子畳み込みニューラルネットワークの分割と並列化
- Authors: Koki Chinzei, Quoc Hoan Tran, Kazunori Maruyama, Hirotaka Oshima,
Shintaro Sato
- Abstract要約: 量子畳み込みニューラルネットワーク(QCNN)は、有望な量子機械学習(QML)モデルである。
本稿では、量子データの事前知識を利用して効率的な回路設計を行う、分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A quantum convolutional neural network (QCNN) is a promising quantum machine
learning (QML) model to achieve quantum advantages in classically intractable
problems. However, QCNN requires a large number of measurements for data
learning, limiting its practical applications for large-scale problems. To
relieve this requirement, we propose a novel architecture called
split-parallelizing QCNN (sp-QCNN), which exploits the prior knowledge of
quantum data for designing efficient circuits. This architecture draws
inspiration from geometric quantum machine learning and targets translationally
symmetric quantum data commonly encountered in condensed matter physics. By
splitting the quantum circuit based on translational symmetry, sp-QCNN
substantially parallelizes conventional QCNN without increasing the number of
qubits and further improves the measurement efficiency by an order of the
number of qubits. To demonstrate its effectiveness, we apply sp-QCNN to a
quantum phase recognition task and show that it can achieve similar performance
to conventional QCNN while considerably reducing the measurement resources
required. Due to its high measurement efficiency, sp-QCNN can mitigate
statistical errors in estimating the gradient of the loss function, thereby
accelerating the learning process. These results open up new possibilities for
incorporating the prior knowledge of data into the efficient design of QML
models, leading to practical quantum advantages.
- Abstract(参考訳): 量子畳み込みニューラルネットワーク(quantum convolutional Neural Network, QCNN)は、古典的に難解な問題において量子アドバンテージを達成するための有望な量子機械学習(QML)モデルである。
しかし、qcnnは大規模な問題に対する実用的応用を制限し、データ学習に大量の測定を必要とする。
この要求を解消するために,より効率的な回路設計のための量子データの事前知識を活用した分割並列化QCNN(sp-QCNN)というアーキテクチャを提案する。
このアーキテクチャは幾何学的量子機械学習からインスピレーションを得ており、凝縮物質物理学でよく見られる翻訳対称量子データをターゲットにしている。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化し、キュービット数の順序で測定効率を向上する。
量子位相認識タスクにsp-QCNNを適用し,従来のQCNNと同等の性能を示すとともに,必要な測定資源を大幅に削減できることを示す。
高測定効率のため、sp-QCNNは損失関数の勾配を推定する際の統計的誤差を軽減し、学習過程を加速することができる。
これらの結果は、データの事前知識をQMLモデルの効率的な設計に組み込む新たな可能性を開き、実用的な量子的優位性をもたらす。
関連論文リスト
- Resource-efficient equivariant quantum convolutional neural networks [0.0]
本研究では、同変分割並列化QCNN(sp-QCNN)と呼ばれる同変量子畳み込みニューラルネットワーク(QCNN)の資源効率モデルを提案する。
グループ理論的アプローチを用いて、以前のsp-QCNNで対処された翻訳対称性を超えて、一般対称性をモデルにエンコードする。
この結果は,実用的な量子機械学習アルゴリズムの進歩に寄与する。
論文 参考訳(メタデータ) (2024-10-02T05:51:33Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Optimizing Quantum Convolutional Neural Network Architectures for Arbitrary Data Dimension [2.9396076967931526]
量子畳み込みニューラルネットワーク(QCNN)は量子機械学習において有望なアプローチである。
量子リソースの割り当てを最適化しながら任意の入力データ次元を処理できるQCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-28T02:25:12Z) - Error-tolerant quantum convolutional neural networks for symmetry-protected topological phases [0.0]
パラメトリック化量子回路、測定、フィードフォワードに基づく量子ニューラルネットワークは、大量の量子データを処理できる。
量子畳み込みニューラルネットワーク(QCNN)を構築し,異なる対称性で保護された位相を認識できる。
QCNNの出力は閾値誤差確率以下の対称性破り誤差に対して頑健であることを示す。
論文 参考訳(メタデータ) (2023-07-07T16:47:02Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。