論文の概要: A deep learning model for noise prediction on near-term quantum devices
- arxiv url: http://arxiv.org/abs/2005.10811v1
- Date: Thu, 21 May 2020 17:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 03:38:42.369479
- Title: A deep learning model for noise prediction on near-term quantum devices
- Title(参考訳): 短期量子デバイスにおける雑音予測のためのディープラーニングモデル
- Authors: Alexander Zlokapa, Alexandru Gheorghiu
- Abstract要約: 我々は、量子デバイスからの実験データに基づいて畳み込みニューラルネットワークをトレーニングし、ハードウェア固有のノイズモデルを学ぶ。
コンパイラはトレーニングされたネットワークをノイズ予測器として使用し、期待されるノイズを最小限に抑えるために回路にゲートのシーケンスを挿入する。
- 参考スコア(独自算出の注目度): 137.6408511310322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach for a deep-learning compiler of quantum circuits,
designed to reduce the output noise of circuits run on a specific device. We
train a convolutional neural network on experimental data from a quantum device
to learn a hardware-specific noise model. A compiler then uses the trained
network as a noise predictor and inserts sequences of gates in circuits so as
to minimize expected noise. We tested this approach on the IBM 5-qubit devices
and observed a reduction in output noise of 12.3% (95% CI [11.5%, 13.0%])
compared to the circuits obtained by the Qiskit compiler. Moreover, the trained
noise model is hardware-specific: applying a noise model trained on one device
to another device yields a noise reduction of only 5.2% (95% CI [4.9%, 5.6%]).
These results suggest that device-specific compilers using machine learning may
yield higher fidelity operations and provide insights for the design of noise
models.
- Abstract(参考訳): 本稿では,特定のデバイス上で動作している回路の出力ノイズを低減するために,量子回路のディープラーニングコンパイラを提案する。
量子デバイスから実験データに基づいて畳み込みニューラルネットワークを訓練し、ハードウェア固有のノイズモデルを学ぶ。
コンパイラはトレーニングされたネットワークをノイズ予測器として使用し、期待ノイズを最小限にするために回路にゲートのシーケンスを挿入する。
提案手法をIBM 5-qubit デバイス上でテストし,Qiskit コンパイラで得られた回路と比較して出力ノイズ 12.3% (95% CI [11.5%, 13.0%]) の低減を観測した。
さらに、トレーニングされたノイズモデルはハードウェア固有のものであり、あるデバイスでトレーニングされたノイズモデルを別のデバイスに適用すると、ノイズはわずか5.2%(95% CI [4.9%, 5.6%])となる。
これらの結果から,機械学習を用いたデバイス固有のコンパイラは,高忠実度演算を実現し,ノイズモデルの設計に対する洞察を与える可能性が示唆された。
関連論文リスト
- Enhance Vision-Language Alignment with Noise [59.2608298578913]
本研究では,凍結モデルがカスタマイズノイズによって微調整可能であるか検討する。
ビジュアルエンコーダとテキストエンコーダの両方にノイズを注入することでCLIPを微調整できる正インセンティブノイズ(PiNI)を提案する。
論文 参考訳(メタデータ) (2024-12-14T12:58:15Z) - Scalable noise characterisation of syndrome extraction circuits with averaged circuit eigenvalue sampling [0.0]
本稿では,量子誤り訂正符号のシンドローム抽出回路を特徴付けるために,スケーラブルなノイズ特徴化プロトコルを開発した。
以上の結果から,ノイズの詳細な特徴付け手法は短期量子デバイスに拡張可能であることが示唆された。
論文 参考訳(メタデータ) (2024-04-09T18:00:30Z) - Optimized Noise Suppression for Quantum Circuits [0.40964539027092917]
クロストークノイズは、例えば、クロス共鳴ベースの超伝導量子プロセッサにおける深刻なエラー源である。
Intrepidプログラミングアルゴリズムは、スワップ挿入によって最適化されたキュービットルーティングに関する以前の作業を拡張する。
最大127キュービットの2つのチップのクロストークノイズを特徴付けることで,提案手法の評価を行った。
論文 参考訳(メタデータ) (2024-01-12T07:34:59Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Error-aware Quantization through Noise Tempering [43.049102196902844]
量子化対応トレーニング(QAT)は、量子化エラーをシミュレートしながら、エンドタスクに関するモデルパラメータを最適化する。
本研究では,指数関数的に減衰する量子化・エラー認識ノイズと,学習可能なタスク損失勾配のスケールを組み込んで量子化演算子の効果を近似する。
本手法は, 従来の手法を0.5-1.2%絶対値で上回り, 均一な(非混合精度)量子化のための最先端トップ1分類精度を得る。
論文 参考訳(メタデータ) (2022-12-11T20:37:50Z) - Pulse-level noisy quantum circuits with QuTiP [53.356579534933765]
我々はQuTiPの量子情報処理パッケージであるqutip-qipに新しいツールを導入する。
これらのツールはパルスレベルで量子回路をシミュレートし、QuTiPの量子力学解法と制御最適化機能を活用する。
シミュレーションプロセッサ上で量子回路がどのようにコンパイルされ、制御パルスがターゲットハミルトニアンに作用するかを示す。
論文 参考訳(メタデータ) (2021-05-20T17:06:52Z) - Mitigating depolarizing noise on quantum computers with noise-estimation
circuits [1.3375143521862154]
本稿では、まず、雑音推定回路を用いて、その周波数を推定することで、脱分極ノイズを緩和する手法を提案する。
我々は,数百個のCNOTゲートを含む回路であっても,読み出し誤り訂正,コンパイル,ランダム化,ゼロノイズ外挿と組み合わせることで,正確な結果が得られた。
論文 参考訳(メタデータ) (2021-03-15T17:59:06Z) - Learning based signal detection for MIMO systems with unknown noise
statistics [84.02122699723536]
本論文では,未知のノイズ統計による信号を堅牢に検出する一般化最大確率(ML)推定器を考案する。
実際には、システムノイズに関する統計的な知識はほとんどなく、場合によっては非ガウス的であり、衝動的であり、分析不可能である。
我々のフレームワークは、ノイズサンプルのみを必要とする教師なしの学習アプローチによって駆動される。
論文 参考訳(メタデータ) (2021-01-21T04:48:15Z) - Machine learning of noise-resilient quantum circuits [0.8258451067861933]
雑音の緩和と低減は、短期量子コンピュータから有用な答えを得るのに不可欠である。
本稿では,量子回路における量子ハードウェアノイズの影響を低減するための機械学習に基づく汎用フレームワークを提案する。
ノイズ対応回路学習(NACL)と呼ばれる手法は、ユニタリ変換を計算したり、量子状態のセットを作成したり、多ビット状態の観測可能な状態を推定したりするために設計された回路に適用される。
論文 参考訳(メタデータ) (2020-07-02T15:43:32Z) - Noise Mitigation with Delay Pulses in the IBM Quantum Experience [0.0]
現在の量子コンピューティングハードウェアの最大の課題の1つは、ノイズの多いデバイスから信頼できる結果を得る方法である。
最近の論文では、ゲート時間を延ばしてノイズを注入する方法を説明し、IBM-Qデバイスにおけるノイズ量の関数としての量子期待値の計算を可能にした。
ここでは、アイデンティティパルスの意図的な付加を利用して、徐々に量子計算をノイズレベルの増加に従わせるために、デバイスを周期的に舗装する別のスキームが述べられている。
論文 参考訳(メタデータ) (2020-05-26T05:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。