論文の概要: Quantum Neural Network Compression
- arxiv url: http://arxiv.org/abs/2207.01578v2
- Date: Tue, 5 Jul 2022 15:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 11:57:26.425159
- Title: Quantum Neural Network Compression
- Title(参考訳): 量子ニューラルネットワークの圧縮
- Authors: Zhirui Hu, Peiyan Dong, Zhepeng Wang, Youzuo Lin, Yanzhi Wang, Weiwen
Jiang
- Abstract要約: 量子ニューラルネットワークと古典ニューラルネットワークの圧縮には相違点があることが示されている。
我々は、量子ニューラルネットワークを圧縮する最初の体系的フレームワーク、CompVQCを提案する。
- 参考スコア(独自算出の注目度): 23.206283554472787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model compression, such as pruning and quantization, has been widely applied
to optimize neural networks on resource-limited classical devices. Recently,
there are growing interest in variational quantum circuits (VQC), that is, a
type of neural network on quantum computers (a.k.a., quantum neural networks).
It is well known that the near-term quantum devices have high noise and limited
resources (i.e., quantum bits, qubits); yet, how to compress quantum neural
networks has not been thoroughly studied. One might think it is straightforward
to apply the classical compression techniques to quantum scenarios. However,
this paper reveals that there exist differences between the compression of
quantum and classical neural networks. Based on our observations, we claim that
the compilation/traspilation has to be involved in the compression process. On
top of this, we propose the very first systematical framework, namely CompVQC,
to compress quantum neural networks (QNNs).In CompVQC, the key component is a
novel compression algorithm, which is based on the alternating direction method
of multipliers (ADMM) approach. Experiments demonstrate the advantage of the
CompVQC, reducing the circuit depth (almost over 2.5 %) with a negligible
accuracy drop (<1%), which outperforms other competitors. Another promising
truth is our CompVQC can indeed promote the robustness of the QNN on the
near-term noisy quantum devices.
- Abstract(参考訳): プルーニングや量子化などのモデル圧縮は、リソース制限された古典的デバイス上でのニューラルネットワークの最適化に広く応用されている。
近年、量子コンピュータ(すなわち量子ニューラルネットワーク)上のニューラルネットワークの一種である変分量子回路(vqc)への関心が高まっている。
近い将来の量子デバイスは高いノイズと限られた資源(量子ビット、量子ビットなど)を持つことが知られているが、量子ニューラルネットワークの圧縮方法はまだ十分に研究されていない。
量子シナリオに古典的な圧縮技術を適用するのは簡単だと思います。
しかし,本論文は,量子ニューラルネットワークと古典ニューラルネットワークの圧縮に違いがあることを明らかにする。
この結果から,圧縮プロセスにはコンパイル/トランススピル化が関与する必要があると結論づけた。
そこで我々は,量子ニューラルネットワーク(QNN)を圧縮するための,最初の体系的フレームワークであるCompVQCを提案する。
CompVQCでは、乗算器(ADMM)アプローチの交互方向法に基づく新しい圧縮アルゴリズムが鍵となる。
実験では、CompVQCの利点が示され、回路深さ(ほぼ2.5%)が減少し、無視できる精度が低下する(<1%)。
もう一つの有望な真実は、我々のCompVQCは、近い将来のノイズ量子デバイスにおけるQNNの堅牢性を促進することができるということです。
関連論文リスト
- A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Iterative Qubits Management for Quantum Index Searching in a Hybrid
System [56.39703478198019]
IQuCSは、量子古典ハイブリッドシステムにおけるインデックス検索とカウントを目的としている。
我々はQiskitでIQuCSを実装し、集中的な実験を行う。
その結果、量子ビットの消費を最大66.2%削減できることが示されている。
論文 参考訳(メタデータ) (2022-09-22T21:54:28Z) - Evaluating the performance of sigmoid quantum perceptrons in quantum
neural networks [0.0]
量子機械学習のための有望なアーキテクチャとして量子ニューラルネットワーク(QNN)が提案されている。
1つの候補は古典的パーセプトロンの非線形活性化関数をエミュレートするために設計された量子パーセプトロンである。
本稿では,SQPネットワークの性能と性能を,その有効次元と有効容量の計算によって評価する。
論文 参考訳(メタデータ) (2022-08-12T10:08:11Z) - QFCNN: Quantum Fourier Convolutional Neural Network [4.344289435743451]
量子フーリエ畳み込みネットワーク(Quantum Fourier Convolutional Network, QFCN)というハイブリッド量子古典回路を提案する。
提案モデルは,古典的CNNと比較して指数的な高速化を実現し,既存の量子CNNの最良の結果よりも向上する。
交通予測や画像分類など,さまざまなディープラーニングタスクに適用することで,このアーキテクチャの可能性を示す。
論文 参考訳(メタデータ) (2021-06-19T04:37:39Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Realising and compressing quantum circuits with quantum reservoir
computing [2.834895018689047]
量子ノードのランダムネットワークが量子コンピューティングの堅牢なハードウェアとしてどのように使用できるかを示す。
我々のネットワークアーキテクチャは、量子ノードの単一層のみを最適化することで量子演算を誘導する。
数量子状態においては、量子回路内の複数の量子ゲートのシーケンスは単一の演算で圧縮することができる。
論文 参考訳(メタデータ) (2020-03-21T03:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。