論文の概要: QMLP: An Error-Tolerant Nonlinear Quantum MLP Architecture using
Parameterized Two-Qubit Gates
- arxiv url: http://arxiv.org/abs/2206.01345v1
- Date: Fri, 3 Jun 2022 00:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 20:23:03.919069
- Title: QMLP: An Error-Tolerant Nonlinear Quantum MLP Architecture using
Parameterized Two-Qubit Gates
- Title(参考訳): QMLP:パラメータ化二ビットゲートを用いた誤差耐性非線形量子MLPアーキテクチャ
- Authors: Cheng Chu, Nai-Hui Chia, Lei Jiang, Fan Chen
- Abstract要約: 潜在的な量子超越性にもかかわらず、最先端量子ニューラルネットワーク(QNN)は推論精度が低い。
本稿では,誤差耐性入力埋め込み,リッチ非線形性,拡張可変回路アンサッツを特徴とする量子多層パーセプトロン(QMLP)アーキテクチャを提案する。
先行技術と比較して、QMLPは10クラスのMNISTデータセットの推測精度を10%向上させ、2倍の量子ゲートと3倍のパラメータを削減した。
- 参考スコア(独自算出の注目度): 7.924635590945599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite potential quantum supremacy, state-of-the-art quantum neural networks
(QNNs) suffer from low inference accuracy. First, the current Noisy
Intermediate-Scale Quantum (NISQ) devices with high error rates of 0.001 to
0.01 significantly degrade the accuracy of a QNN. Second, although recently
proposed Re-Uploading Units (RUUs) introduce some non-linearity into the QNN
circuits, the theory behind it is not fully understood. Furthermore, previous
RUUs that repeatedly upload original data can only provide marginal accuracy
improvements. Third, current QNN circuit ansatz uses fixed two-qubit gates to
enforce maximum entanglement capability, making task-specific entanglement
tuning impossible, resulting in poor overall performance. In this paper, we
propose a Quantum Multilayer Perceptron (QMLP) architecture featured by
error-tolerant input embedding, rich nonlinearity, and enhanced variational
circuit ansatz with parameterized two-qubit entangling gates. Compared to prior
arts, QMLP increases the inference accuracy on the 10-class MNIST dataset by
10% with 2 times fewer quantum gates and 3 times reduced parameters. Our source
code is available and can be found in [1]
- Abstract(参考訳): 潜在的な量子超越性にもかかわらず、最先端量子ニューラルネットワーク(QNN)は推論精度が低い。
第一に、エラー率0.001から0.01の現在のノイズ中間量子(NISQ)デバイスは、QNNの精度を著しく低下させる。
第2に、最近提案されたRe-Uploading Units (RUUs) はQNN回路に非線形性を導入しているが、その背景にある理論は完全には理解されていない。
さらに、元のデータを何度もアップロードする以前のルールは、限界精度の改善しか提供できない。
第3に、現在のqnn回路であるansatzは、固定された2量子ビットゲートを使用して最大エンタングルメント能力を実行し、タスク固有のエンタングルメントチューニングを不可能にし、全体的なパフォーマンスを低下させる。
本稿では,量子多層パーセプトロン (QMLP) アーキテクチャを提案する。
先行技術と比較して、QMLPは10クラスのMNISTデータセットの推測精度を10%向上させ、2倍の量子ゲートと3倍のパラメータを削減した。
私たちのソースコードは利用可能で、[1]で確認できます。
関連論文リスト
- The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - Non-parametric Greedy Optimization of Parametric Quantum Circuits [2.77390041716769]
本研究の目的は、パラメトリックゲートを近似的に固定された非パラメトリック表現に置き換えることで、PQCの深さとゲート数を削減することである。
約14%の深さ減少と48%のゲート数減少を3.33%の精度で観測した。
論文 参考訳(メタデータ) (2024-01-27T15:29:38Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Fast Flux-Activated Leakage Reduction for Superconducting Quantum
Circuits [84.60542868688235]
量子ビット実装のマルチレベル構造から生じる計算部分空間から漏れること。
パラメトリックフラックス変調を用いた超伝導量子ビットの資源効率向上のためのユニバーサルリーク低減ユニットを提案する。
繰り返し重み付け安定化器測定におけるリーク低減ユニットの使用により,検出されたエラーの総数を,スケーラブルな方法で削減できることを実証した。
論文 参考訳(メタデータ) (2023-09-13T16:21:32Z) - Error-tolerant quantum convolutional neural networks for symmetry-protected topological phases [0.0]
パラメトリック化量子回路、測定、フィードフォワードに基づく量子ニューラルネットワークは、大量の量子データを処理できる。
量子畳み込みニューラルネットワーク(QCNN)を構築し,異なる対称性で保護された位相を認識できる。
QCNNの出力は閾値誤差確率以下の対称性破り誤差に対して頑健であることを示す。
論文 参考訳(メタデータ) (2023-07-07T16:47:02Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification [6.891238879512672]
量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
論文 参考訳(メタデータ) (2022-02-02T15:29:46Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。