論文の概要: Reduction of finite sampling noise in quantum neural networks
- arxiv url: http://arxiv.org/abs/2306.01639v1
- Date: Fri, 2 Jun 2023 15:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:21:22.969239
- Title: Reduction of finite sampling noise in quantum neural networks
- Title(参考訳): 量子ニューラルネットワークにおける有限サンプリングノイズの低減
- Authors: David Kreplin and Marco Roth
- Abstract要約: 量子ニューラルネットワーク(QNN)は、データ依存の入力を持つパラメータ化量子回路を使用し、期待値の評価を通じて出力を生成する。
本稿では,量子モデル学習における期待値の分散を低減する手法である分散正則化を導入する。
本例では,QNNのノイズレベルが著しく低下することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) use parameterized quantum circuits with
data-dependent inputs and generate outputs through the evaluation of
expectation values. Calculating these expectation values necessitates repeated
circuit evaluations, thus introducing fundamental finite-sampling noise even on
error-free quantum computers. We reduce this noise by introducing the variance
regularization, a technique for reducing the variance of the expectation value
during the quantum model training. This technique requires no additional
circuit evaluations if the QNN is properly constructed. Our empirical findings
demonstrate the reduced variance speeds up the training and lowers the output
noise as well as decreases the number of measurements in the gradient circuit
evaluation. This regularization method is benchmarked on the regression of
multiple functions. We show that in our examples, it lowers the variance by an
order of magnitude on average and leads to a significantly reduced noise level
of the QNN. We finally demonstrate QNN training on a real quantum device and
evaluate the impact of error mitigation. Here, the optimization is practical
only due to the reduced number shots in the gradient evaluation resulting from
the reduced variance.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、データ依存の入力を持つパラメータ化量子回路を使用し、期待値の評価を通じて出力を生成する。
これらの期待値を計算することは繰り返し回路評価を必要とするため、エラーのない量子コンピュータでも基本的な有限サンプリングノイズが生じる。
このノイズを量子モデルトレーニング中に期待値の分散を減少させる手法である分散正規化を導入することで低減する。
この手法は、QNNが適切に構築されている場合、追加の回路評価を必要としない。
実験結果から, 分散速度の低下がトレーニングを高速化し, 出力ノイズを低減し, 勾配回路評価における測定回数を減少させることを示した。
この正則化法は多重関数の回帰に基づいてベンチマークされる。
私たちの例では、平均で1桁のばらつきが減少し、qnnのノイズレベルが著しく低下することを示している。
最後に,実量子デバイス上でqnnトレーニングを行い,誤差軽減の効果を評価する。
この最適化は, 分散の低減による勾配評価において, ショット数の減少によってのみ実現可能である。
関連論文リスト
- Designing strong baselines for ternary neural network quantization
through support and mass equalization [7.971065005161565]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンにおける幅広いアプリケーションにおいて、最高のパフォーマンスを提供する。
浮動小数点値を3次値に定量化することにより、この計算負担を劇的に低減することができる。
提案手法は, 様々なシナリオを用いて三次量子化の性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-30T07:35:07Z) - Classical simulations of noisy variational quantum circuits [0.0]
ノイズは量子計算に影響を及ぼし、より正確になるだけでなく、システムのスケールアップとともに古典的なシミュレートも容易になる。
ノイズパラメータ化量子回路の期待値を推定するための古典的シミュレーションアルゴリズムLOWESAを構築した。
論文 参考訳(メタデータ) (2023-06-08T17:52:30Z) - Error Mitigation-Aided Optimization of Parameterized Quantum Circuits:
Convergence Analysis [42.275148861039895]
変分量子アルゴリズム(VQA)は、ノイズプロセッサを介して量子アドバンテージを得るための最も有望な経路を提供する。
不完全性とデコヒーレンスによるゲートノイズは、バイアスを導入して勾配推定に影響を与える。
QEM(Quantum error mitigation)技術は、キュービット数の増加を必要とせずに、推定バイアスを低減することができる。
QEMは必要な反復回数を減らすことができるが、量子ノイズレベルが十分に小さい限りである。
論文 参考訳(メタデータ) (2022-09-23T10:48:04Z) - The Accuracy vs. Sampling Overhead Trade-off in Quantum Error Mitigation
Using Monte Carlo-Based Channel Inversion [84.66087478797475]
量子誤差緩和(Quantum error mitigation, QEM)は、変分量子アルゴリズムの計算誤差を低減するための有望な手法の1つである。
我々はモンテカルロサンプリングに基づく実用的なチャネル反転戦略を考察し、さらなる計算誤差を導入する。
計算誤差が誤差のない結果の動的範囲と比較して小さい場合、ゲート数の平方根でスケールすることを示す。
論文 参考訳(メタデータ) (2022-01-20T00:05:01Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Robust quantum classifier with minimal overhead [0.8057006406834467]
カーネル法に基づくバイナリ分類のためのいくつかの量子アルゴリズムが提案されている。
これらのアルゴリズムは期待値を推定することに依存しており、高額な量子データ符号化手順を何度も繰り返す必要がある。
カーネルベースのバイナリ分類は,データの数や寸法に関わらず,単一キュービットで行うことができることを示す。
論文 参考訳(メタデータ) (2021-04-16T14:51:00Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Error mitigation via verified phase estimation [0.25295633594332334]
本稿では,量子位相推定に基づく新しい誤差低減手法を提案する。
制御量子ビットを使わずに機能に適応できることを示す。
論文 参考訳(メタデータ) (2020-10-06T07:44:10Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。