論文の概要: Reservoir Computing via Quantum Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2211.02612v1
- Date: Fri, 4 Nov 2022 17:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:01:21.413304
- Title: Reservoir Computing via Quantum Recurrent Neural Networks
- Title(参考訳): 量子リカレントニューラルネットワークによる貯留層計算
- Authors: Samuel Yen-Chi Chen, Daniel Fry, Amol Deshmukh, Vladimir Rastunkov,
Charlee Stefanski
- Abstract要約: 既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in quantum computing and machine learning have propelled
the interdisciplinary study of quantum machine learning. Sequential modeling is
an important task with high scientific and commercial value. Existing VQC or
QNN-based methods require significant computational resources to perform the
gradient-based optimization of a larger number of quantum circuit parameters.
The major drawback is that such quantum gradient calculation requires a large
amount of circuit evaluation, posing challenges in current near-term quantum
hardware and simulation software. In this work, we approach sequential modeling
by applying a reservoir computing (RC) framework to quantum recurrent neural
networks (QRNN-RC) that are based on classical RNN, LSTM and GRU. The main idea
to this RC approach is that the QRNN with randomly initialized weights is
treated as a dynamical system and only the final classical linear layer is
trained. Our numerical simulations show that the QRNN-RC can reach results
comparable to fully trained QRNN models for several function approximation and
time series prediction tasks. Since the QRNN training complexity is
significantly reduced, the proposed model trains notably faster. In this work
we also compare to corresponding classical RNN-based RC implementations and
show that the quantum version learns faster by requiring fewer training epochs
in most cases. Our results demonstrate a new possibility to utilize quantum
neural network for sequential modeling with greater quantum hardware
efficiency, an important design consideration for noisy intermediate-scale
quantum (NISQ) computers.
- Abstract(参考訳): 近年の量子コンピューティングと機械学習の発展により、量子機械学習の学際研究が進められている。
シーケンシャルモデリングは、高い科学的、商業的価値を持つ重要なタスクである。
既存のvqcまたはqnnベースの手法では、多くの量子回路パラメータの勾配に基づく最適化を行うためにかなりの計算資源を必要とする。
主な欠点は、このような量子勾配計算には大量の回路評価が必要であり、現在の短期量子ハードウェアとシミュレーションソフトウェアの課題となっている。
本研究では,古典的RNN,LSTM,GRUに基づく量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し,逐次モデリングにアプローチする。
このRCアプローチの主な考え方は、ランダムに初期化された重みを持つQRNNが力学系として扱われ、最終古典的線形層のみが訓練されることである。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列予測タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
QRNNトレーニングの複雑さは大幅に減少するため、提案したモデルは特に高速に訓練される。
この研究では、対応する古典的RNNベースのRC実装と比較し、ほとんどの場合、トレーニングエポックを少なくすることで量子バージョンがより速く学習できることを示します。
提案手法は,ノイズの多い中間規模量子(NISQ)コンピュータにおいて重要な設計上の考慮事項である,より優れた量子ハードウェア効率を持つ逐次モデリングに量子ニューラルネットワークを利用する新たな可能性を示す。
関連論文リスト
- Efficient quantum recurrent reinforcement learning via quantum reservoir
computing [3.6881738506505988]
量子強化学習(QRL)は、シーケンシャルな意思決定タスクを解決するためのフレームワークとして登場した。
本研究は、QRNNベースの量子長短期メモリ(QLSTM)を用いたQRLエージェントの構築により、この課題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-13T22:18:38Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。