論文の概要: Coherent Feed Forward Quantum Neural Network
- arxiv url: http://arxiv.org/abs/2402.00653v1
- Date: Thu, 1 Feb 2024 15:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 15:02:22.109541
- Title: Coherent Feed Forward Quantum Neural Network
- Title(参考訳): コヒーレントフィードフォワード量子ニューラルネットワーク
- Authors: Utkarsh Singh, Aaron Z. Goldberg, Khabat Heshami
- Abstract要約: 量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
- 参考スコア(独自算出の注目度): 2.1178416840822027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning, focusing on quantum neural networks (QNNs), remains
a vastly uncharted field of study. Current QNN models primarily employ
variational circuits on an ansatz or a quantum feature map, often requiring
multiple entanglement layers. This methodology not only increases the
computational cost of the circuit beyond what is practical on near-term quantum
devices but also misleadingly labels these models as neural networks, given
their divergence from the structure of a typical feed-forward neural network
(FFNN). Moreover, the circuit depth and qubit needs of these models scale
poorly with the number of data features, resulting in an efficiency challenge
for real-world machine-learning tasks. We introduce a bona fide QNN model,
which seamlessly aligns with the versatility of a traditional FFNN in terms of
its adaptable intermediate layers and nodes, absent from intermediate
measurements such that our entire model is coherent. This model stands out with
its reduced circuit depth and number of requisite C-NOT gates to outperform
prevailing QNN models. Furthermore, the qubit count in our model remains
unaffected by the data's feature quantity. We test our proposed model on
various benchmarking datasets such as the diagnostic breast cancer (Wisconsin)
and credit card fraud detection datasets. We compare the outcomes of our model
with the existing QNN methods to showcase the advantageous efficacy of our
approach, even with a reduced requirement on quantum resources. Our model paves
the way for application of quantum neural networks to real relevant machine
learning problems.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
現在のQNNモデルは、主にアンサッツまたは量子特徴写像上の変動回路を使用し、しばしば複数の絡み合う層を必要とする。
この手法は、短期量子デバイスで実用化されている以上の回路の計算コストを増加させるだけでなく、典型的なフィードフォワードニューラルネットワーク(FFNN)の構造から分岐していることから、これらのモデルをニューラルネットワークとして誤ってラベル付けする。
さらに、これらのモデルの回路深度とキュービットのニーズは、データ機能の数で十分にスケールできないため、現実の機械学習タスクでは効率が問題となる。
我々は従来のFFNNの汎用性を適応可能な中間層とノードの観点からシームレスに整合させるボナフェイドQNNモデルを提案する。
このモデルは、回路深度を低減し、QNNモデルを上回るために必要となるC-NOTゲートの数で際立っている。
さらに、我々のモデルにおけるqubitカウントは、データの特徴量の影響を受けないままである。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
我々は,従来のQNN手法とモデルの結果を比較し,量子資源の要求を減らしたとしても,我々のアプローチの有利な有効性を示す。
我々のモデルは、量子ニューラルネットワークを実際の関連する機械学習問題に応用する方法を舗装する。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Studying the Impact of Quantum-Specific Hyperparameters on Hybrid Quantum-Classical Neural Networks [4.951980887762045]
ハイブリッド量子古典ニューラルネットワーク(HQNN)は、古典的な機械学習の強みと量子コンピューティング能力を組み合わせた、有望なソリューションである。
本稿では,PennyLaneフレームワーク上に実装された画像分類タスクのHQNNモデルに対して,これらのバリエーションが与える影響について検討する。
我々は,HQNNモデルの直感的および直感的学習パターンを制御された量子摂動の粒度レベル内で明らかにし,精度とトレーニング時間との相関関係の健全な基盤を構築することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T11:44:25Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Quantum convolutional neural network for classical data classification [0.8057006406834467]
古典データ分類のための完全パラメータ化量子畳み込みニューラルネットワーク(QCNN)をベンチマークする。
本稿では,CNNにインスパイアされた量子ニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T06:48:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。