論文の概要: Classification of NEQR Processed Classical Images using Quantum Neural
Networks (QNN)
- arxiv url: http://arxiv.org/abs/2204.02797v1
- Date: Tue, 29 Mar 2022 08:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-10 12:05:38.253216
- Title: Classification of NEQR Processed Classical Images using Quantum Neural
Networks (QNN)
- Title(参考訳): 量子ニューラルネットワーク(QNN)を用いたNEQR処理された古典画像の分類
- Authors: Santanu Ganguly
- Abstract要約: この研究は、著者による以前の研究に基づいており、NEQR(NEQR)を用いた画像分類のためのQNNに対処している。
NEQRモデル回路を構築し、同じデータを前処理し、画像をQNNに入力する。
その結果,NEQRによるQNN性能がNEQRを使わずにQNNの性能を上回った際の限界改善(約5.0%)が認められた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A quantum neural network (QNN) is interpreted today as any quantum circuit
with trainable continuous parameters. This work builds on previous works by the
authors and addresses QNN for image classification with Novel Enhanced Quantum
Representation of (NEQR) processed classical data where Principal component
analysis (PCA) and Projected Quantum Kernel features (PQK) were investigated
previously by the authors as a path to quantum advantage for the same classical
dataset. For each of these cases the Fashion-MNIST dataset was downscaled using
PCA to convert into quantum data where the classical NN easily outperformed the
QNN. However, we demonstrated quantum advantage by using PQK where quantum
models achieved more than ~90% accuracy surpassing their classical counterpart
on the same training dataset as in the first case. In this current work, we use
the same dataset fed into a QNN and compare that with performance of a
classical NN model. We built an NEQR model circuit to pre-process the same data
and feed the images into the QNN. Our results showed marginal improvements
(only about ~5.0%) where the QNN performance with NEQR exceeded the performance
of QNN without NEQR. We conclude that given the computational cost and the
massive circuit depth associated with running NEQR, the advantage offered by
this specific Quantum Image Processing (QIMP) algorithm is questionable at
least for classical image dataset. No actual quantum computing hardware
platform exists today that can support the circuit depth needed to run NEQR
even for the reduced image sizes of our toy classical dataset.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は現在、トレーニング可能な連続パラメータを持つ任意の量子回路として解釈されている。
この研究は、著者らによる以前の研究に基づいており、同じ古典的データセットに対する量子優位性への道筋として、主成分分析(PCA)と投影量子カーネル機能(PQK)が以前に著者らによって調査されたNEQR(NEQR)処理された古典的データを用いた画像分類のためのQNNを基盤としている。
これらのケースのそれぞれに対して、Fashion-MNISTデータセットはPCAを使用してダウンスケールされ、古典的なNNがQNNに容易に勝る量子データに変換された。
しかし、PQKを用いて量子モデルが従来のトレーニングデータセットを上回り、90%以上の精度を達成した場合、量子優位性を実証した。
この作業では、QNNに入力された同じデータセットを使用して、従来のNNモデルのパフォーマンスと比較します。
我々は、同じデータを前処理し、画像をQNNに入力するNEQRモデル回路を構築した。
その結果,NEQRによるQNN性能がNEQRを使わずにQNNの性能を上回った際の限界改善(約5.0%)が認められた。
我々は、NEQRの実行に伴う計算コストと回路深度を考えると、この特定の量子画像処理(QIMP)アルゴリズムがもたらす利点は、少なくとも古典的な画像データセットに対して疑問である。
現在、我々のおもちゃの古典的データセットの縮小画像サイズであっても、NEQRの実行に必要な回路深度をサポートする実際の量子コンピューティングハードウェアプラットフォームは存在しない。
関連論文リスト
- Quantum convolutional neural networks for jet images classification [0.0]
本稿では,高エネルギー物理学における量子機械学習の性能について述べる。
このタスクには量子畳み込みニューラルネットワーク(QCNN)を使用し、その性能をCNNと比較する。
以上の結果から,適切な設定のQCNNの方が,CNNよりも優れた性能を示す傾向が示唆された。
論文 参考訳(メタデータ) (2024-08-16T12:28:10Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Predict better with less training data using a QNN [1.7481852615249125]
従来の画像データを量子状態に効率的にマッピングするクオン進化ニューラルネットワーク(QNN)アルゴリズムについて述べる。
我々は、優れたデータ符号化による利点がある産業アプリケーションに対して、真に量子的な優位性を実証的に観察する。
論文 参考訳(メタデータ) (2022-06-08T15:25:58Z) - On Circuit-based Hybrid Quantum Neural Networks for Remote Sensing
Imagery Classification [88.31717434938338]
ハイブリッドQCNNは、標準ニューラルネットワーク内に量子層を導入することで、CNNの古典的なアーキテクチャを豊かにする。
この研究で提案された新しいQCNNは、地球観測(EO)のユースケースとして選択された土地利用・土地被覆(LULC)分類に適用される。
マルチクラス分類の結果は,QCNNの性能が従来の性能よりも高いことを示すことによって,提案手法の有効性を証明した。
論文 参考訳(メタデータ) (2021-09-20T12:41:50Z) - Quantum convolutional neural network for classical data classification [0.8057006406834467]
古典データ分類のための完全パラメータ化量子畳み込みニューラルネットワーク(QCNN)をベンチマークする。
本稿では,CNNにインスパイアされた量子ニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T06:48:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。