論文の概要: Exploiting the equivalence between quantum neural networks and perceptrons
- arxiv url: http://arxiv.org/abs/2407.04371v1
- Date: Fri, 5 Jul 2024 09:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 14:00:01.992573
- Title: Exploiting the equivalence between quantum neural networks and perceptrons
- Title(参考訳): 量子ニューラルネットワークとパーセプトロンの等価性の爆発
- Authors: Chris Mingard, Jessica Pointing, Charles London, Yoonsoo Nam, Ard A. Louis,
- Abstract要約: パラメタライズド量子回路に基づく量子機械学習モデルは、量子デバイスへの応用において最も有望な候補であると考えられている。
我々はQNNの表現率と帰納バイアスを$x$から$xotimes x$に作用する古典的パーセプトロンへの入力を含むQNNからの正確なマッピングを利用して検討する。
- 参考スコア(独自算出の注目度): 2.598133279943607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning models based on parametrized quantum circuits, also called quantum neural networks (QNNs), are considered to be among the most promising candidates for applications on near-term quantum devices. Here we explore the expressivity and inductive bias of QNNs by exploiting an exact mapping from QNNs with inputs $x$ to classical perceptrons acting on $x \otimes x$ (generalised to complex inputs). The simplicity of the perceptron architecture allows us to provide clear examples of the shortcomings of current QNN models, and the many barriers they face to becoming useful general-purpose learning algorithms. For example, a QNN with amplitude encoding cannot express the Boolean parity function for $n\geq 3$, which is but one of an exponential number of data structures that such a QNN is unable to express. Mapping a QNN to a classical perceptron simplifies training, allowing us to systematically study the inductive biases of other, more expressive embeddings on Boolean data. Several popular embeddings primarily produce an inductive bias towards functions with low class balance, reducing their generalisation performance compared to deep neural network architectures which exhibit much richer inductive biases. We explore two alternate strategies that move beyond standard QNNs. In the first, we use a QNN to help generate a classical DNN-inspired kernel. In the second we draw an analogy to the hierarchical structure of deep neural networks and construct a layered non-linear QNN that is provably fully expressive on Boolean data, while also exhibiting a richer inductive bias than simple QNNs. Finally, we discuss characteristics of the QNN literature that may obscure how hard it is to achieve quantum advantage over deep learning algorithms on classical data.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)とも呼ばれるパラメタライズド量子回路に基づく量子機械学習モデルは、短期量子デバイスへの応用において最も有望な候補であると考えられている。
ここでは、QNNの表現率と帰納バイアスについて、$x$から$x \otimes x$(複素入力に一般化)に作用する古典的パーセプトロンへの入力を、QNNから正確にマッピングすることで検討する。
パーセプトロンアーキテクチャの単純さにより、現在のQNNモデルの欠点と、それらが直面する多くの障壁が、有用な汎用学習アルゴリズムとなるための明確な例を提供することができる。
例えば、振幅エンコーディングを持つQNNは、$n\geq 3$のブールパリティ関数を表現できない。
QNNを古典的なパーセプトロンにマッピングすることで、トレーニングを単純化し、Booleanデータ上の他のより表現力のある埋め込みの帰納的バイアスを体系的に研究することができる。
いくつかの一般的な埋め込みは、主にクラスバランスの低い関数に対する帰納的バイアスを生じさせ、よりリッチな帰納的バイアスを示すディープニューラルネットワークアーキテクチャと比較して一般化性能を低下させる。
標準QNNを超越した2つの戦略を探求する。
まず最初に、従来のDNNにインスパイアされたカーネルを生成するのにQNNを使用します。
二つ目は、ディープニューラルネットワークの階層構造に類似し、ブーリアンデータに完全に表現可能な層状非線形QNNを構築すると同時に、単純なQNNよりも豊かな帰納バイアスを示す。
最後に,古典的データ上での深層学習アルゴリズムよりも量子的優位性を実現することがいかに難しいかを明らかにするQNN文献の特徴について論じる。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Evaluating the performance of sigmoid quantum perceptrons in quantum
neural networks [0.0]
量子機械学習のための有望なアーキテクチャとして量子ニューラルネットワーク(QNN)が提案されている。
1つの候補は古典的パーセプトロンの非線形活性化関数をエミュレートするために設計された量子パーセプトロンである。
本稿では,SQPネットワークの性能と性能を,その有効次元と有効容量の計算によって評価する。
論文 参考訳(メタデータ) (2022-08-12T10:08:11Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。