論文の概要: Branching Quantum Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2012.14439v1
- Date: Mon, 28 Dec 2020 19:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 01:40:24.941458
- Title: Branching Quantum Convolutional Neural Networks
- Title(参考訳): 分岐量子畳み込みニューラルネットワーク
- Authors: Ian MacCormack, Conor Delaney, Alexey Galda, Nidhi Aggarwal, and
Prineha Narang
- Abstract要約: 小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network-based algorithms have garnered considerable attention in
condensed matter physics for their ability to learn complex patterns from very
high dimensional data sets towards classifying complex long-range patterns of
entanglement and correlations in many-body quantum systems. Small-scale quantum
computers are already showing potential gains in learning tasks on large
quantum and very large classical data sets. A particularly interesting class of
algorithms, the quantum convolutional neural networks (QCNN) could learn
features of a quantum data set by performing a binary classification task on a
nontrivial phase of quantum matter. Inspired by this promise, we present a
generalization of QCNN, the branching quantum convolutional neural network, or
bQCNN, with substantially higher expressibility. A key feature of bQCNN is that
it leverages mid-circuit (intermediate) measurement results, realizable on
current trapped-ion systems, obtained in pooling layers to determine which sets
of parameters will be used in the subsequent convolutional layers of the
circuit. This results in a branching structure, which allows for a greater
number of trainable variational parameters in a given circuit depth. This is of
particular use on current-day NISQ devices, where circuit depth is limited by
gate noise. We present an overview of the ansatz structure and scaling, and
provide evidence of its enhanced expressibility compared to QCNN. Using
artificially-constructed large data sets of training states as a
proof-of-concept we demonstrate the existence of training tasks in which bQCNN
far outperforms an ordinary QCNN. Finally, we present future directions where
the classical branching structure and increased density of trainable parameters
in bQCNN would be particularly valuable.
- Abstract(参考訳): ニューラルネットワークベースのアルゴリズムは、超高次元データセットから複雑なパターンを学習し、多体量子システムにおける絡み合いと相関の複雑な長距離パターンを分類する能力によって、凝縮物物理学においてかなりの注目を集めている。
大規模な量子コンピュータはすでに、大きな量子と非常に大きな古典的データセットの学習タスクで潜在的に利益を上げている。
特に興味深いアルゴリズムのクラスである量子畳み込みニューラルネットワーク(QCNN)は、量子物質の非自明な位相に二項分類タスクを実行することによって量子データセットの特徴を学習することができる。
この約束に触発されて、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、はるかに高い表現性で一般化する。
bqcnnの重要な特徴は、プール層で得られる現在の捕捉イオン系で実現可能な中間回路(中間)測定結果を利用して、回路の次の畳み込み層で使用するパラメータのセットを決定することである。
これにより分岐構造が実現され、与えられた回路深さで訓練可能な変動パラメータがより多くなる。
これは現在のNISQデバイスで特に使われており、ゲートノイズによって回路深さが制限されている。
本稿では, アンザッツの構造とスケーリングについて概説し, QCNNと比較して表現性の向上を示す。
人工的に構築した大規模なトレーニング状態のデータセットを概念実証として,bQCNNが通常のQCNNよりも優れるトレーニングタスクの存在を実証する。
最後に,bQCNNにおける古典的分岐構造とトレーニング可能なパラメータの密度の増大が特に重要となる今後の方向性を示す。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Studying the Impact of Quantum-Specific Hyperparameters on Hybrid Quantum-Classical Neural Networks [4.951980887762045]
ハイブリッド量子古典ニューラルネットワーク(HQNN)は、古典的な機械学習の強みと量子コンピューティング能力を組み合わせた、有望なソリューションである。
本稿では,PennyLaneフレームワーク上に実装された画像分類タスクのHQNNモデルに対して,これらのバリエーションが与える影響について検討する。
我々は,HQNNモデルの直感的および直感的学習パターンを制御された量子摂動の粒度レベル内で明らかにし,精度とトレーニング時間との相関関係の健全な基盤を構築することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T11:44:25Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - Quantum convolutional neural network for classical data classification [0.8057006406834467]
古典データ分類のための完全パラメータ化量子畳み込みニューラルネットワーク(QCNN)をベンチマークする。
本稿では,CNNにインスパイアされた量子ニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T06:48:34Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。