論文の概要: Rapid training of quantum recurrent neural network
- arxiv url: http://arxiv.org/abs/2207.00378v1
- Date: Fri, 1 Jul 2022 12:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:57:05.451126
- Title: Rapid training of quantum recurrent neural network
- Title(参考訳): 量子リカレントニューラルネットワークの高速トレーニング
- Authors: Micha{\l} Siemaszko, Thomas McDermott, Adam Buraczewski, Bertrand Le
Saux, Magdalena Stobi\'nska
- Abstract要約: 本稿では,これらの障害に対処する量子リカレントニューラルネットワーク(QRNN)を提案する。
ネットワークの設計は連続変数量子コンピューティングのパラダイムに基づいている。
数値シミュレーションにより、QRNNは古典的ネットワークよりも少ないエポックで最適な重みに収束していることが示された。
- 参考スコア(独自算出の注目度): 26.087244189340858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series prediction is the crucial task for many human activities e.g.
weather forecasts or predicting stock prices. One solution to this problem is
to use Recurrent Neural Networks (RNNs). Although they can yield accurate
predictions, their learning process is slow and complex. Here we propose a
Quantum Recurrent Neural Network (QRNN) to address these obstacles. The design
of the network is based on the continuous-variable quantum computing paradigm.
We demonstrate that the network is capable of learning time dependence of a few
types of temporal data. Our numerical simulations show that the QRNN converges
to optimal weights in fewer epochs than the classical network. Furthermore, for
a small number of trainable parameters it can achieve lower loss than the
latter.
- Abstract(参考訳): 時系列予測は、天気予報や株価予報など、多くの人間の活動にとって重要なタスクである。
この問題の解決策のひとつは、リカレントニューラルネットワーク(RNN)を使用することだ。
正確な予測は可能だが、学習プロセスは遅く複雑である。
本稿では,これらの障害に対処する量子リカレントニューラルネットワーク(QRNN)を提案する。
ネットワークの設計は連続可変量子コンピューティングパラダイムに基づいている。
ネットワークは,いくつかの時間的データの時間依存性を学習できることを実証する。
数値シミュレーションにより,qrnnは古典的ネットワークよりも少ないエポックで最適重みに収束することが示された。
さらに、少数のトレーニング可能なパラメータでは、後者よりも低い損失を達成できる。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Algebraic Representations for Faster Predictions in Convolutional Neural Networks [0.0]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおけるタスクのモデルとして一般的な選択肢である。
より簡単な勾配最適化問題を作成するために、スキップ接続を追加することもできる。
スキップ接続を持つ任意の複雑で訓練された線形CNNは単層モデルに単純化可能であることを示す。
論文 参考訳(メタデータ) (2024-08-14T21:10:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Supervised learning of random quantum circuits via scalable neural
networks [0.0]
深部畳み込みニューラルネットワーク(CNN)は、単一キュービットと2キュービットの期待値を予測するために訓練されている。
CNNは、回路深度、ネットワーク深度、トレーニングセットサイズによって、量子デバイスよりも優れていることが多い。
論文 参考訳(メタデータ) (2022-06-21T13:05:52Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Zero-shot and few-shot time series forecasting with ordinal regression
recurrent neural networks [17.844338213026976]
リカレントニューラルネットワーク(RNN)は、いくつかのシーケンシャルな学習タスクにおいて最先端である。
本稿では,多くの量子化された時系列の空間上に埋め込まれた共有特徴を学習することにより,この問題に直接対処する新しいRNNモデルを提案する。
これにより、トレーニングデータが少ない場合であっても、RNNフレームワークが不適切な時系列を正確かつ確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-03-26T21:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。