論文の概要: Recurrent Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2006.14619v1
- Date: Thu, 25 Jun 2020 17:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:50:57.333233
- Title: Recurrent Quantum Neural Networks
- Title(参考訳): リカレント量子ニューラルネットワーク
- Authors: Johannes Bausch
- Abstract要約: リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent neural networks are the foundation of many sequence-to-sequence
models in machine learning, such as machine translation and speech synthesis.
In contrast, applied quantum computing is in its infancy. Nevertheless there
already exist quantum machine learning models such as variational quantum
eigensolvers which have been used successfully e.g. in the context of energy
minimization tasks. In this work we construct a quantum recurrent neural
network (QRNN) with demonstrable performance on non-trivial tasks such as
sequence learning and integer digit classification. The QRNN cell is built from
parametrized quantum neurons, which, in conjunction with amplitude
amplification, create a nonlinear activation of polynomials of its inputs and
cell state, and allow the extraction of a probability distribution over
predicted classes at each step. To study the model's performance, we provide an
implementation in pytorch, which allows the relatively efficient optimization
of parametrized quantum circuits with thousands of parameters. We establish a
QRNN training setup by benchmarking optimization hyperparameters, and analyse
suitable network topologies for simple memorisation and sequence prediction
tasks from Elman's seminal paper (1990) on temporal structure learning. We then
proceed to evaluate the QRNN on MNIST classification, both by feeding the QRNN
each image pixel-by-pixel; and by utilising modern data augmentation as
preprocessing step. Finally, we analyse to what extent the unitary nature of
the network counteracts the vanishing gradient problem that plagues many
existing quantum classifiers and classical RNNs.
- Abstract(参考訳): リカレントニューラルネットワークは、機械翻訳や音声合成など、機械学習におけるシーケンス対シーケンスモデルの基盤となっている。
対照的に、応用量子コンピューティングはその初期段階にある。
それでも、例えばエネルギー最小化タスクの文脈でうまく使われている変分量子固有ソルバのような量子機械学習モデルがすでに存在する。
本研究では,シーケンス学習や整数桁分類などの非自明なタスクにおいて,実証可能な性能を持つ量子リカレントニューラルネットワーク(qrnn)を構築する。
QRNNセルは、振幅増幅と合わせて、入力とセル状態の多項式の非線形活性化を生成し、各ステップで予測されたクラス上の確率分布の抽出を可能にするパラメタライズされた量子ニューロンから構築される。
モデルの性能を調べるために、ピトルチの実装を提供し、数千のパラメータを持つパラメトリック量子回路の比較的効率的な最適化を可能にする。
最適化ハイパーパラメータのベンチマークによるqrnnトレーニングセットアップを確立し,時間構造学習に関するelman's seminal paper (1990) から,簡単な記憶とシーケンス予測タスクに適したネットワークトポロジを分析した。
MNIST分類におけるQRNNの評価は、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理ステップとして利用する。
最後に、ネットワークのユニタリ性が、既存の多くの量子分類器や古典的RNNを悩ませる消滅する勾配問題にどの程度対処するかを分析する。
関連論文リスト
- Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Enhancing the expressivity of quantum neural networks with residual
connections [0.0]
量子残差ニューラルネットワーク(QResNets)を実装する量子回路に基づくアルゴリズムを提案する。
我々の研究は、古典的残留ニューラルネットワークの完全な量子的実装の基礎を築いた。
論文 参考訳(メタデータ) (2024-01-29T04:00:51Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。