論文の概要: DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification
- arxiv url: http://arxiv.org/abs/2202.01899v1
- Date: Wed, 2 Feb 2022 15:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:02:33.047666
- Title: DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification
- Title(参考訳): DeepQMLP: 分類のためのスケーラブルな量子古典ハイブリッドニューラルネットワークアーキテクチャ
- Authors: Mahabubul Alam, Swaroop Ghosh
- Abstract要約: 量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
- 参考スコア(独自算出の注目度): 6.891238879512672
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantum machine learning (QML) is promising for potential speedups and
improvements in conventional machine learning (ML) tasks (e.g.,
classification/regression). The search for ideal QML models is an active
research field. This includes identification of efficient classical-to-quantum
data encoding scheme, construction of parametric quantum circuits (PQC) with
optimal expressivity and entanglement capability, and efficient output decoding
scheme to minimize the required number of measurements, to name a few. However,
most of the empirical/numerical studies lack a clear path towards scalability.
Any potential benefit observed in a simulated environment may diminish in
practical applications due to the limitations of noisy quantum hardware (e.g.,
under decoherence, gate-errors, and crosstalk). We present a scalable
quantum-classical hybrid deep neural network (DeepQMLP) architecture inspired
by classical deep neural network architectures. In DeepQMLP, stacked shallow
Quantum Neural Network (QNN) models mimic the hidden layers of a classical
feed-forward multi-layer perceptron network. Each QNN layer produces a new and
potentially rich representation of the input data for the next layer. This new
representation can be tuned by the parameters of the circuit. Shallow QNN
models experience less decoherence, gate errors, etc. which make them (and the
network) more resilient to quantum noise. We present numerical studies on a
variety of classification problems to show the trainability of DeepQMLP. We
also show that DeepQMLP performs reasonably well on unseen data and exhibits
greater resilience to noise over QNN models that use a deep quantum circuit.
DeepQMLP provided up to 25.3% lower loss and 7.92% higher accuracy during
inference under noise than QMLP.
- Abstract(参考訳): 量子機械学習(QML)は、従来の機械学習(ML)タスク(例えば分類/回帰)の潜在的なスピードアップと改善を約束している。
理想的なQMLモデルの探索は、活発な研究分野である。
これには、効率的な古典-量子データ符号化方式の同定、最適な表現性と絡み合いを持つパラメトリック量子回路(PQC)の構築、必要な測定数を最小限に抑えるための効率的な出力復号方式などが含まれる。
しかし、実証的/数値的な研究のほとんどはスケーラビリティへの明確な道のりを欠いている。
シミュレーション環境で見られるあらゆる潜在的な利益は、ノイズの多い量子ハードウェア(デコヒーレンス、ゲートエラー、クロストークなど)の制限により、実用的な応用において減少する可能性がある。
古典的ディープニューラルネットワークアーキテクチャに触発されたスケーラブルな量子古典型ハイブリッドディープニューラルネットワーク(deepqmlp)アーキテクチャを提案する。
DeepQMLPでは、スタックされた浅い量子ニューラルネットワーク(QNN)モデルが、古典的なフィードフォワード多層パーセプトロンネットワークの隠れた層を模倣している。
各QNN層は、次の層に対する入力データの新しい、潜在的にリッチな表現を生成する。
この新しい表現は回路のパラメータによって調整できる。
浅度のQNNモデルでは、デコヒーレンスやゲートエラーなどが少なくなり、量子ノイズに対する耐性が向上する(およびネットワーク)。
本稿では,deepqmlpのトレーサビリティを示すために,分類問題に関する数値的研究を行う。
また、DeepQMLPは、未確認データに対して合理的に良好に動作し、深い量子回路を使用するQNNモデルよりも高い耐雑音性を示すことを示す。
DeepQMLPは、QMLPよりもノイズ下での推論において最大25.3%の損失と7.92%の精度を与えた。
関連論文リスト
- Quantum-Trained Convolutional Neural Network for Deepfake Audio Detection [3.2927352068925444]
ディープフェイク技術は プライバシー セキュリティ 情報整合性に 課題をもたらす
本稿では,ディープフェイク音声の検出を強化するために,量子学習型畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T20:52:10Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Knowledge Distillation in Quantum Neural Network using Approximate
Synthesis [5.833272638548153]
量子ニューラルネットワーク(QNN)における知識蒸留の概念を近似合成を用いて紹介する。
回路層が71.4%減少し、ノイズ下では16.2%の精度が達成されている。
論文 参考訳(メタデータ) (2022-07-05T04:09:43Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。