論文の概要: Knowledge Distillation in Quantum Neural Network using Approximate
Synthesis
- arxiv url: http://arxiv.org/abs/2207.01801v1
- Date: Tue, 5 Jul 2022 04:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 12:56:10.217027
- Title: Knowledge Distillation in Quantum Neural Network using Approximate
Synthesis
- Title(参考訳): 近似合成を用いた量子ニューラルネットワークの知識蒸留
- Authors: Mahabubul Alam, Satwik Kundu, Swaroop Ghosh
- Abstract要約: 量子ニューラルネットワーク(QNN)における知識蒸留の概念を近似合成を用いて紹介する。
回路層が71.4%減少し、ノイズ下では16.2%の精度が達成されている。
- 参考スコア(独自算出の注目度): 5.833272638548153
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent assertions of a potential advantage of Quantum Neural Network (QNN)
for specific Machine Learning (ML) tasks have sparked the curiosity of a
sizable number of application researchers. The parameterized quantum circuit
(PQC), a major building block of a QNN, consists of several layers of
single-qubit rotations and multi-qubit entanglement operations. The optimum
number of PQC layers for a particular ML task is generally unknown. A larger
network often provides better performance in noiseless simulations. However, it
may perform poorly on hardware compared to a shallower network. Because the
amount of noise varies amongst quantum devices, the optimal depth of PQC can
vary significantly. Additionally, the gates chosen for the PQC may be suitable
for one type of hardware but not for another due to compilation overhead. This
makes it difficult to generalize a QNN design to wide range of hardware and
noise levels. An alternate approach is to build and train multiple QNN models
targeted for each hardware which can be expensive. To circumvent these issues,
we introduce the concept of knowledge distillation in QNN using approximate
synthesis. The proposed approach will create a new QNN network with (i) a
reduced number of layers or (ii) a different gate set without having to train
it from scratch. Training the new network for a few epochs can compensate for
the loss caused by approximation error. Through empirical analysis, we
demonstrate ~71.4% reduction in circuit layers, and still achieve ~16.2% better
accuracy under noise.
- Abstract(参考訳): 特定の機械学習(ml)タスクに対する量子ニューラルネットワーク(qnn)の潜在的な利点に関する最近の主張は、かなりの数のアプリケーション研究者の興味をひいた。
QNNの主要なビルディングブロックであるパラメタライズド量子回路(PQC)は、複数の1量子ビットの回転と複数量子ビットの絡み合い演算からなる。
特定のMLタスクに対する最適PQC層数は一般に不明である。
大きなネットワークは、ノイズのないシミュレーションでパフォーマンスが向上することが多い。
しかし、より浅いネットワークに比べてハードウェア上では性能が劣る可能性がある。
ノイズの量は量子デバイスによって異なるため、PQCの最適深さは著しく変化する。
さらに、PQCで選択されたゲートは、ある種類のハードウェアに適しているが、コンパイルオーバーヘッドのために別のハードウェアには適していない。
これにより、QNN設計を幅広いハードウェアやノイズレベルに一般化することは困難である。
別のアプローチとして、コストのかかる各ハードウェアを対象とした複数のQNNモデルの構築とトレーニングがある。
これらの問題を回避するために、近似合成を用いたQNNにおける知識蒸留の概念を導入する。
提案するアプローチは、新しいQNNネットワークを作成する。
(i)少ない数の層又は層
(ii)スクラッチからトレーニングしなくても異なるゲートセットが設定される。
いくつかのエポックに対する新しいネットワークのトレーニングは、近似誤差による損失を補うことができる。
実験分析により、回路層が約71.4%減少し、ノイズ下でも約16.2%の精度が得られた。
関連論文リスト
- Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification [6.891238879512672]
量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
論文 参考訳(メタデータ) (2022-02-02T15:29:46Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A White Paper on Neural Network Quantization [20.542729144379223]
本稿では,量子化ノイズがネットワークの性能に与える影響を緩和する最新アルゴリズムを提案する。
我々は,ポストトレーニング量子化(PTQ)と量子化アウェア・トレーニング(QAT)の2つのアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2021-06-15T17:12:42Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。