論文の概要: Power and limitations of single-qubit native quantum neural networks
- arxiv url: http://arxiv.org/abs/2205.07848v1
- Date: Mon, 16 May 2022 17:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:40:27.847938
- Title: Power and limitations of single-qubit native quantum neural networks
- Title(参考訳): 単一量子ビットネイティブ量子ニューラルネットワークのパワーと限界
- Authors: Zhan Yu, Hongshun Yao, Mujin Li, Xin Wang
- Abstract要約: 量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
- 参考スコア(独自算出の注目度): 5.526775342940154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) have emerged as a leading strategy to
establish applications in machine learning, chemistry, and optimization. While
the applications of QNN have been widely investigated, its theoretical
foundation remains less understood. In this paper, we formulate a theoretical
framework for the expressive ability of data re-uploading quantum neural
networks that consist of interleaved encoding circuit blocks and trainable
circuit blocks. First, we prove that single-qubit quantum neural networks can
approximate any univariate function by mapping the model to a partial Fourier
series. Beyond previous works' understanding of existence, we in particular
establish the exact correlations between the parameters of the trainable gates
and the working Fourier coefficients, by exploring connections to quantum
signal processing. Second, we discuss the limitations of single-qubit native
QNNs on approximating multivariate functions by analyzing the frequency
spectrum and the flexibility of Fourier coefficients. We further demonstrate
the expressivity and limitations of single-qubit native QNNs via numerical
experiments. As applications, we introduce natural extensions to multi-qubit
quantum neural networks, which exhibit the capability of classifying real-world
multi-dimensional data. We believe these results would improve our
understanding of QNNs and provide a helpful guideline for designing powerful
QNNs for machine learning tasks.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
QNNの応用は広く研究されているが、その理論的基礎はいまだに理解されていない。
本稿では、インターリーブ符号化回路ブロックとトレーニング可能な回路ブロックからなる量子ニューラルネットワークをデータ再ロードする際の表現能力に関する理論的枠組みを定式化する。
まず、単一量子ニューラルネットワークは、モデルを部分フーリエ級数にマッピングすることで、任意の単変量関数を近似できることを示す。
従来の研究における存在の理解以外にも、特に量子信号処理への接続を探求することで、トレーニング可能なゲートのパラメータと動作するフーリエ係数の正確な相関関係を確立する。
次に,周波数スペクトルとフーリエ係数の柔軟性を解析し,多変量関数近似に対する単一量子化qnnの限界について考察する。
さらに,単量子ネイティブqnnの表現率と限界を数値実験により実証する。
応用として,実世界の多次元データを分類する能力を示すマルチ量子ビット量子ニューラルネットワークの自然拡張を提案する。
これらの結果により、QNNの理解が向上し、機械学習タスクのための強力なQNNを設計するための有用なガイドラインが提供されると思います。
関連論文リスト
- The Impact of Architecture and Cost Function on Dissipative Quantum Neural Networks [0.016385815610837167]
本稿では,各ビルディングブロックが任意の量子チャネルを実装可能な,散逸型量子ニューラルネットワーク(DQNN)の新しいアーキテクチャを提案する。
アイソメトリの多目的な1対1パラメトリ化を導出し,提案手法の効率的な実装を可能にした。
論文 参考訳(メタデータ) (2025-02-13T17:38:48Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Enhancing the expressivity of quantum neural networks with residual
connections [0.0]
量子残差ニューラルネットワーク(QResNets)を実装する量子回路に基づくアルゴリズムを提案する。
我々の研究は、古典的残留ニューラルネットワークの完全な量子的実装の基礎を築いた。
論文 参考訳(メタデータ) (2024-01-29T04:00:51Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - QTN-VQC: An End-to-End Learning framework for Quantum Neural Networks [71.14713348443465]
可変量子回路(VQC)上に量子埋め込みを行うためのトレーニング可能な量子テンソルネットワーク(QTN)を導入する。
QTNは、量子埋め込みの生成から出力測定まで、エンドツーエンドのパラメトリックモデルパイプライン、すなわちQTN-VQCを可能にする。
MNISTデータセットに対する我々の実験は、他の量子埋め込み手法に対する量子埋め込みに対するQTNの利点を実証している。
論文 参考訳(メタデータ) (2021-10-06T14:44:51Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。