論文の概要: Reduction of finite sampling noise in quantum neural networks
- arxiv url: http://arxiv.org/abs/2306.01639v3
- Date: Fri, 21 Jun 2024 08:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 20:37:28.610353
- Title: Reduction of finite sampling noise in quantum neural networks
- Title(参考訳): 量子ニューラルネットワークにおける有限サンプリングノイズの低減
- Authors: David A. Kreplin, Marco Roth,
- Abstract要約: 本稿では,量子モデル学習における期待値の分散を低減する手法である分散正則化を導入する。
この手法は、QNNが適切に構築されている場合、追加の回路評価を必要としない。
本例では,QNNのノイズレベルが著しく低下することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) use parameterized quantum circuits with data-dependent inputs and generate outputs through the evaluation of expectation values. Calculating these expectation values necessitates repeated circuit evaluations, thus introducing fundamental finite-sampling noise even on error-free quantum computers. We reduce this noise by introducing the variance regularization, a technique for reducing the variance of the expectation value during the quantum model training. This technique requires no additional circuit evaluations if the QNN is properly constructed. Our empirical findings demonstrate the reduced variance speeds up the training and lowers the output noise as well as decreases the number of necessary evaluations of gradient circuits. This regularization method is benchmarked on the regression of multiple functions and the potential energy surface of water. We show that in our examples, it lowers the variance by an order of magnitude on average and leads to a significantly reduced noise level of the QNN. We finally demonstrate QNN training on a real quantum device and evaluate the impact of error mitigation. Here, the optimization is feasible only due to the reduced number of necessary shots in the gradient evaluation resulting from the reduced variance.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、データ依存の入力を持つパラメータ化量子回路を使用し、期待値の評価を通じて出力を生成する。
これらの期待値を計算することは繰り返し回路評価を必要とするため、エラーのない量子コンピュータでも基本的な有限サンプリングノイズが生じる。
量子モデルトレーニングにおける期待値の分散を低減する手法である分散正則化を導入することにより、このノイズを低減する。
この手法は、QNNが適切に構築されている場合、追加の回路評価を必要としない。
実験により, 学習速度の低下と出力雑音の低減, および勾配回路の必要な評価回数の低減を実証した。
この正則化法は、複数の関数の回帰と水のポテンシャルエネルギー面をベンチマークする。
本例では,QNNのノイズレベルが著しく低下することを示す。
最終的に実量子デバイス上でのQNNトレーニングを実演し、エラー軽減の効果を評価する。
ここでは, ばらつきの低減による勾配評価において, 必要なショット数が少ないためのみ, 最適化が可能となる。
関連論文リスト
- Designing strong baselines for ternary neural network quantization
through support and mass equalization [7.971065005161565]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンにおける幅広いアプリケーションにおいて、最高のパフォーマンスを提供する。
浮動小数点値を3次値に定量化することにより、この計算負担を劇的に低減することができる。
提案手法は, 様々なシナリオを用いて三次量子化の性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-30T07:35:07Z) - Classical simulations of noisy variational quantum circuits [0.0]
ノイズは量子計算に影響を及ぼし、より正確になるだけでなく、システムのスケールアップとともに古典的なシミュレートも容易になる。
ノイズパラメータ化量子回路の期待値を推定するための古典的シミュレーションアルゴリズムLOWESAを構築した。
論文 参考訳(メタデータ) (2023-06-08T17:52:30Z) - Error Mitigation-Aided Optimization of Parameterized Quantum Circuits:
Convergence Analysis [42.275148861039895]
変分量子アルゴリズム(VQA)は、ノイズプロセッサを介して量子アドバンテージを得るための最も有望な経路を提供する。
不完全性とデコヒーレンスによるゲートノイズは、バイアスを導入して勾配推定に影響を与える。
QEM(Quantum error mitigation)技術は、キュービット数の増加を必要とせずに、推定バイアスを低減することができる。
QEMは必要な反復回数を減らすことができるが、量子ノイズレベルが十分に小さい限りである。
論文 参考訳(メタデータ) (2022-09-23T10:48:04Z) - The Accuracy vs. Sampling Overhead Trade-off in Quantum Error Mitigation
Using Monte Carlo-Based Channel Inversion [84.66087478797475]
量子誤差緩和(Quantum error mitigation, QEM)は、変分量子アルゴリズムの計算誤差を低減するための有望な手法の1つである。
我々はモンテカルロサンプリングに基づく実用的なチャネル反転戦略を考察し、さらなる計算誤差を導入する。
計算誤差が誤差のない結果の動的範囲と比較して小さい場合、ゲート数の平方根でスケールすることを示す。
論文 参考訳(メタデータ) (2022-01-20T00:05:01Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Robust quantum classifier with minimal overhead [0.8057006406834467]
カーネル法に基づくバイナリ分類のためのいくつかの量子アルゴリズムが提案されている。
これらのアルゴリズムは期待値を推定することに依存しており、高額な量子データ符号化手順を何度も繰り返す必要がある。
カーネルベースのバイナリ分類は,データの数や寸法に関わらず,単一キュービットで行うことができることを示す。
論文 参考訳(メタデータ) (2021-04-16T14:51:00Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Error mitigation via verified phase estimation [0.25295633594332334]
本稿では,量子位相推定に基づく新しい誤差低減手法を提案する。
制御量子ビットを使わずに機能に適応できることを示す。
論文 参考訳(メタデータ) (2020-10-06T07:44:10Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。