論文の概要: Quantum Recurrent Neural Networks for Sequential Learning
- arxiv url: http://arxiv.org/abs/2302.03244v1
- Date: Tue, 7 Feb 2023 04:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 17:26:42.604556
- Title: Quantum Recurrent Neural Networks for Sequential Learning
- Title(参考訳): 逐次学習のための量子リカレントニューラルネットワーク
- Authors: Yanan Li, Zhimin Wang, Rongbing Han, Shangshang Shi, Jiaxin Li, Ruimin
Shang, Haiyong Zheng, Guoqiang Zhong, Yongjian Gu
- Abstract要約: 近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
- 参考スコア(独自算出の注目度): 11.133759363113867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural network (QNN) is one of the promising directions where the
near-term noisy intermediate-scale quantum (NISQ) devices could find
advantageous applications against classical resources. Recurrent neural
networks are the most fundamental networks for sequential learning, but up to
now there is still a lack of canonical model of quantum recurrent neural
network (QRNN), which certainly restricts the research in the field of quantum
deep learning. In the present work, we propose a new kind of QRNN which would
be a good candidate as the canonical QRNN model, where, the quantum recurrent
blocks (QRBs) are constructed in the hardware-efficient way, and the QRNN is
built by stacking the QRBs in a staggered way that can greatly reduce the
algorithm's requirement with regard to the coherent time of quantum devices.
That is, our QRNN is much more accessible on NISQ devices. Furthermore, the
performance of the present QRNN model is verified concretely using three
different kinds of classical sequential data, i.e., meteorological indicators,
stock price, and text categorization. The numerical experiments show that our
QRNN achieves much better performance in prediction (classification) accuracy
against the classical RNN and state-of-the-art QNN models for sequential
learning, and can predict the changing details of temporal sequence data. The
practical circuit structure and superior performance indicate that the present
QRNN is a promising learning model to find quantum advantageous applications in
the near term.
- Abstract(参考訳): 量子ニューラルネットワーク(qnn)は、ノイズの多い中間スケール量子(nisq)デバイスが、古典的リソースに対して有利な応用を見出す有望な方向の1つである。
リカレントニューラルネットワークは、シーケンシャル学習のための最も基本的なネットワークであるが、これまでは量子リカレントニューラルネットワーク(qrnn)の標準モデルが欠如しており、量子ディープラーニングの分野での研究は確実に制限されている。
本研究では,量子リカレントブロック(qrbs)をハードウェア効率のよい方法で構築し,量子デバイスのコヒーレント時間に対するアルゴリズムの要求を著しく低減できるように,qrbをスタッガー状に積み重ねることでqrnnを構築する,標準のqrnnモデルとして良い候補となる新しいタイプのqrnnを提案する。
つまり、NISQデバイスではQRNNの方がずっとアクセスしやすいのです。
さらに、現在のqrnnモデルの性能を3種類の古典的シーケンシャルデータ、すなわち気象指標、株価、テキスト分類を用いて具体的に検証する。
数値実験により,我々のQRNNは逐次学習のための古典的RNNおよび最先端QNNモデルに対する予測(分類)精度が向上し,時間的シーケンスデータの変化を予測できることがわかった。
実際の回路構造と優れた性能は、現在のQRNNが近い将来に量子上の有利な応用を見つけるための有望な学習モデルであることを示唆している。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Scalable Quantum Convolutional Neural Networks [12.261689483681145]
我々は、スケーラブル量子畳み込みニューラルネットワーク(sQCNN)と呼ばれる量子ニューラルネットワーク(QCNN)の新バージョンを提案する。
さらに、QCの忠実度を用いて、sQCNNの性能を最大化する逆忠実度トレーニング(RF-Train)と呼ばれるsQCNNトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T02:07:00Z) - On Circuit-based Hybrid Quantum Neural Networks for Remote Sensing
Imagery Classification [88.31717434938338]
ハイブリッドQCNNは、標準ニューラルネットワーク内に量子層を導入することで、CNNの古典的なアーキテクチャを豊かにする。
この研究で提案された新しいQCNNは、地球観測(EO)のユースケースとして選択された土地利用・土地被覆(LULC)分類に適用される。
マルチクラス分類の結果は,QCNNの性能が従来の性能よりも高いことを示すことによって,提案手法の有効性を証明した。
論文 参考訳(メタデータ) (2021-09-20T12:41:50Z) - Quantum convolutional neural network for classical data classification [0.8057006406834467]
古典データ分類のための完全パラメータ化量子畳み込みニューラルネットワーク(QCNN)をベンチマークする。
本稿では,CNNにインスパイアされた量子ニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T06:48:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。