論文の概要: Variational Quantum Neural Networks (VQNNS) in Image Classification
- arxiv url: http://arxiv.org/abs/2303.05860v1
- Date: Fri, 10 Mar 2023 11:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 15:10:54.904764
- Title: Variational Quantum Neural Networks (VQNNS) in Image Classification
- Title(参考訳): 画像分類における変分量子ニューラルネットワーク(VQNNS)
- Authors: Meghashrita Das and Tirupati Bolisetti
- Abstract要約: 本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning has established as an interdisciplinary field to
overcome limitations of classical machine learning and neural networks. This is
a field of research which can prove that quantum computers are able to solve
problems with complex correlations between inputs that can be hard for
classical computers. This suggests that learning models made on quantum
computers may be more powerful for applications, potentially faster computation
and better generalization on less data. The objective of this paper is to
investigate how training of quantum neural network (QNNs) can be done using
quantum optimization algorithms for improving the performance and time
complexity of QNNs. A classical neural network can be partially quantized to
create a hybrid quantum-classical neural network which is used mainly in
classification and image recognition. In this paper, a QNN structure is made
where a variational parameterized circuit is incorporated as an input layer
named as Variational Quantum Neural Network (VQNNs). We encode the cost
function of QNNs onto relative phases of a superposition state in the Hilbert
space of the network parameters. The parameters are tuned with an iterative
quantum approximate optimisation (QAOA) mixer and problem hamiltonians. VQNNs
is experimented with MNIST digit recognition (less complex) and crack image
classification datasets (more complex) which converges the computation in
lesser time than QNN with decent training accuracy.
- Abstract(参考訳): 量子機械学習は、古典的機械学習とニューラルネットワークの限界を克服するための学際的な分野として確立された。
これは量子コンピュータが古典的コンピュータでは難しい入力間の複雑な相関を持つ問題を解くことができることを証明できる研究分野である。
これは、量子コンピュータで作成された学習モデルは、アプリケーションにとってより強力であり、より高速な計算とより少ないデータでの一般化をもたらす可能性があることを示唆している。
本稿では,QNNの性能と時間的複雑さを改善するために,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
古典的ニューラルネットワークを部分的に量子化することで、主に分類と画像認識に使われるハイブリッド量子古典的ニューラルネットワークを作成することができる。
本稿では,変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として,変分パラメータ化回路を組み込んだQNN構造について述べる。
ネットワークパラメータのヒルベルト空間における重ね合わせ状態の相対位相にQNNのコスト関数をエンコードする。
パラメータは、反復量子近似最適化(QAOA)ミキサーと問題ハミルトニアンで調整される。
vqnns は mnist digit recognition (less complex) と crack image classification dataset (more complex) を用いて実験され、適切なトレーニング精度で qnn よりも少ない時間で計算を収束させる。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Evaluating the performance of sigmoid quantum perceptrons in quantum
neural networks [0.0]
量子機械学習のための有望なアーキテクチャとして量子ニューラルネットワーク(QNN)が提案されている。
1つの候補は古典的パーセプトロンの非線形活性化関数をエミュレートするために設計された量子パーセプトロンである。
本稿では,SQPネットワークの性能と性能を,その有効次元と有効容量の計算によって評価する。
論文 参考訳(メタデータ) (2022-08-12T10:08:11Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - QFCNN: Quantum Fourier Convolutional Neural Network [4.344289435743451]
量子フーリエ畳み込みネットワーク(Quantum Fourier Convolutional Network, QFCN)というハイブリッド量子古典回路を提案する。
提案モデルは,古典的CNNと比較して指数的な高速化を実現し,既存の量子CNNの最良の結果よりも向上する。
交通予測や画像分類など,さまざまなディープラーニングタスクに適用することで,このアーキテクチャの可能性を示す。
論文 参考訳(メタデータ) (2021-06-19T04:37:39Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。