論文の概要: Non-parametric Greedy Optimization of Parametric Quantum Circuits
- arxiv url: http://arxiv.org/abs/2401.15442v1
- Date: Sat, 27 Jan 2024 15:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 18:29:14.250134
- Title: Non-parametric Greedy Optimization of Parametric Quantum Circuits
- Title(参考訳): パラメトリック量子回路の非パラメトリックグリード最適化
- Authors: Koustubh Phalak, Swaroop Ghosh
- Abstract要約: 本研究の目的は、パラメトリックゲートを近似的に固定された非パラメトリック表現に置き換えることで、PQCの深さとゲート数を削減することである。
約14%の深さ減少と48%のゲート数減少を3.33%の精度で観測した。
- 参考スコア(独自算出の注目度): 2.77390041716769
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of Quantum Neural Networks (QNN) that are analogous to classical
neural networks, has greatly increased in the past decade owing to the growing
interest in the field of Quantum Machine Learning (QML). A QNN consists of
three major components: (i) data loading/encoding circuit, (ii) Parametric
Quantum Circuit (PQC), and (iii) measurement operations. Under ideal
circumstances the PQC of the QNN trains well, however that may not be the case
for training under quantum hardware due to presence of different kinds of
noise. Deeper QNNs with high depths tend to degrade more in terms of
performance compared to shallower networks. This work aims to reduce depth and
gate count of PQCs by replacing parametric gates with their approximate fixed
non-parametric representations. We propose a greedy algorithm to achieve this
such that the algorithm minimizes a distance metric based on unitary
transformation matrix of original parametric gate and new set of non-parametric
gates. From this greedy optimization followed by a few epochs of re-training,
we observe roughly 14% reduction in depth and 48% reduction in gate count at
the cost of 3.33% reduction in inferencing accuracy. Similar results are
observed for a different dataset as well with different PQC structure.
- Abstract(参考訳): 古典的ニューラルネットワークに類似した量子ニューラルネットワーク(qnn)の利用は、量子機械学習(qml)の分野への関心が高まっているため、過去10年間で大幅に増加している。
QNNは3つの主要コンポーネントから構成される。
(i)データロード/エンコード回路
(ii)パラメトリック量子回路(pqc)及び
(iii)測定操作。
理想的な状況下では、QNNのPQCはよく訓練されるが、異なる種類のノイズが存在するため、量子ハードウェアの下でのトレーニングはそうではないかもしれない。
深度の高いより深いQNNは、浅いネットワークに比べて性能が低下する傾向にある。
この研究は、パラメトリックゲートを近似固定非パラメトリック表現に置き換えることで、pqcの深さとゲート数を減らすことを目的としている。
そこで本手法では,元のパラメトリックゲートのユニタリ変換行列と新しい非パラメトリックゲートセットに基づいて距離距離を最小化する。
この厳密な最適化と幾度かの再訓練の結果,約14%の深さ減少と48%のゲート数減少を,推論精度の3.33%のコストで観測した。
同様の結果は、異なるデータセットと異なるPQC構造に対して観測される。
関連論文リスト
- Adaptive variational quantum dynamics simulations with compressed circuits and fewer measurements [4.2643127089535104]
AVQDS(T)と呼ばれる適応変分量子力学シミュレーション(AVQDS)法の改良版を示す。
このアルゴリズムは、変分力学の精度の尺度であるマクラクラン距離を一定しきい値以下に保つために、アンザッツ回路に不連結なユニタリゲートの層を適応的に加算する。
また、雑音耐性を増強した変動パラメータに対する線形運動方程式を解くために、固有値トランケーションに基づく手法を示す。
論文 参考訳(メタデータ) (2024-08-13T02:56:43Z) - Error-tolerant quantum convolutional neural networks for symmetry-protected topological phases [0.0]
パラメトリック化量子回路、測定、フィードフォワードに基づく量子ニューラルネットワークは、大量の量子データを処理できる。
量子畳み込みニューラルネットワーク(QCNN)を構築し,異なる対称性で保護された位相を認識できる。
QCNNの出力は閾値誤差確率以下の対称性破り誤差に対して頑健であることを示す。
論文 参考訳(メタデータ) (2023-07-07T16:47:02Z) - TopGen: Topology-Aware Bottom-Up Generator for Variational Quantum
Circuits [26.735857677349628]
変分量子アルゴリズム(VQA)は、短期デバイスに量子上の利点を示すことを約束している。
パラメータ化ゲートを持つ変分回路であるアンサッツの設計は、VQAにとって最重要となる。
トポロジ固有のアンザッツを生成するボトムアップ手法を提案する。
論文 参考訳(メタデータ) (2022-10-15T04:18:41Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - Wide Quantum Circuit Optimization with Topology Aware Synthesis [0.8469686352132708]
ユニタリ合成は、量子回路を制限的量子ビット位相にマッピングしながら最適なマルチキュービットゲート数を達成する最適化手法である。
我々は,emphBQSKitフレームワークで構築されたトポロジ対応合成ツールであるTopASを紹介した。
論文 参考訳(メタデータ) (2022-06-27T21:59:30Z) - Tensor Ring Parametrized Variational Quantum Circuits for Large Scale
Quantum Machine Learning [28.026962110693695]
本稿では,テンソルリング表現を用いて回路内の量子状態を圧縮するアルゴリズムを提案する。
ストレージと計算時間は、正確なシミュレーションアルゴリズムによる指数的な増加と比較して、キュービット数とレイヤー数で線形に増加する。
We achieve a test accuracy of 83.33% on Iris dataset and a maximum of 99.30% and 76.31% on binary and ternary classification of MNIST dataset。
論文 参考訳(メタデータ) (2022-01-21T19:54:57Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - Improving the Performance of Deep Quantum Optimization Algorithms with
Continuous Gate Sets [47.00474212574662]
変分量子アルゴリズムは計算的に難しい問題を解くのに有望であると考えられている。
本稿では,QAOAの回路深度依存性能について実験的に検討する。
この結果から, 連続ゲートセットの使用は, 短期量子コンピュータの影響を拡大する上で重要な要素である可能性が示唆された。
論文 参考訳(メタデータ) (2020-05-11T17:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。