論文の概要: Exponentially tighter bounds on limitations of quantum error mitigation
- arxiv url: http://arxiv.org/abs/2210.11505v1
- Date: Thu, 20 Oct 2022 18:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 20:04:38.497492
- Title: Exponentially tighter bounds on limitations of quantum error mitigation
- Title(参考訳): 量子誤差緩和の極限に関する指数的に厳密な境界
- Authors: Yihui Quek, Daniel Stilck Fran\c{c}a, Sumeet Khatri, Johannes Jakob
Meyer, Jens Eisert
- Abstract要約: 短期量子コンピューティングにおいて、避けられない誤りに対処する手段として量子エラー軽減法が提案されている。
本研究では,より大きなシステムサイズに対して,量子ノイズを効果的に排除できる程度に強い制約を課す。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum error mitigation has been proposed as a means to combat unavoidable
errors in near-term quantum computing by classically post-processing outcomes
of multiple quantum circuits. It does so in a fashion that requires no or few
additional quantum resources, in contrast to fault-tolerant schemes that come
along with heavy overheads. Error mitigation leads to noise reduction in small
systems. In this work, however, we identify strong limitations to the degree to
which quantum noise can be effectively `undone' for larger system sizes. We
start out by presenting a formal framework that rigorously encapsulates large
classes of meaningful and practically applied schemes for quantum error
mitigation, including virtual distillation, Clifford data regression,
zero-noise extrapolation and probabilistic error cancellation. With the
framework in place, our technical contribution is to construct families of
random circuits that are highly sensitive to noise, in the sense that even at
log log(n) depth, a whisker beyond constant, quantum noise is seen to
super-exponentially rapidly scramble their output into the maximally-mixed
state. Our results exponentially tighten known arguments for error mitigation,
but they go beyond that: Our arguments can be applied to kernel estimation or
to compute the depth at which barren plateaus emerge, implying that the
scrambling kicks in at exponentially smaller depths than previously thought.
Our results also say that a noisy device must be sampled exponentially many
times to estimate expectation values. There are classical algorithms that
exhibit the same scaling in complexity. While improvements in quantum hardware
will push noise levels down, if error mitigation is used, ultimately this can
only lead to an exponential time quantum algorithm with a better exponent,
putting up a strong obstruction to the hope for exponential quantum speedups in
this setting.
- Abstract(参考訳): 複数の量子回路の古典的な後処理結果によって、短期量子コンピューティングにおける避けられないエラーに対処する手段として、量子エラー軽減法が提案されている。
これは、重いオーバーヘッドを伴うフォールトトレラントなスキームとは対照的に、追加の量子リソースをほとんど必要としない方法で行う。
誤差軽減は小さなシステムにおけるノイズ低減につながる。
しかし,本研究では,より大きなシステムサイズに対して,量子ノイズが効果的に「不要」となる程度に強い制約を課す。
まず, 仮想蒸留, クリフォードデータ回帰, ゼロノイズ外挿, 確率的誤り消去など, 有意義で実用的な量子誤り軽減手法を, 大規模にカプセル化した形式的枠組みを提案する。
この枠組みが成立すると、我々の技術的貢献はノイズに非常に敏感なランダム回路の族を構築することであり、対数対数(n)深さのウィスキーでも、量子ノイズは超指数的に急速に出力を最大混合状態にスクランブルする。
我々の主張は、カーネル推定や、不規則な台地が出現する深さを計算するために適用でき、これは、以前考えられていたよりも指数関数的に小さな深さで発散することを意味する。
また, 期待値の推定には, ノイズの大きい装置を指数関数的に何度もサンプリングする必要がある。
同じ複雑さのスケーリングを示す古典的なアルゴリズムがあります。
量子ハードウェアの改善はノイズレベルを下げるが、もしエラーの緩和が使われるなら、最終的には指数時間量子アルゴリズムがより良い指数性を持つようになり、この設定における指数量子スピードアップの期待に強い障害を与えることになる。
関連論文リスト
- Maximum Likelihood Quantum Error Mitigation for Algorithms with a Single
Correct Output [5.601537787608725]
量子誤差軽減は、量子コンピュータにおけるノイズの影響を低減する重要な手法である。
本稿では,1つの正しい出力を持つ量子アルゴリズムに対して,単純かつ効果的な緩和手法である量子ビット的多数決法を提案する。
論文 参考訳(メタデータ) (2024-02-19T04:44:33Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - QuantumSEA: In-Time Sparse Exploration for Noise Adaptive Quantum
Circuits [82.50620782471485]
QuantumSEAはノイズ適応型量子回路のインタイムスパース探索である。
1)トレーニング中の暗黙の回路容量と(2)雑音の頑健さの2つの主要な目標を達成することを目的としている。
提案手法は, 量子ゲート数の半減と回路実行の2倍の時間節約で, 最先端の計算結果を確立する。
論文 参考訳(メタデータ) (2024-01-10T22:33:00Z) - Limits of Fault-Tolerance on Resource-Constrained Quantum Circuits for
Classical Problems [16.56157299018674]
既存の境界から得られた雑音閾値は、Deutsch-Jozsaアルゴリズムの単純なフォールトトレラントな実装には適用できないことを示す。
我々は、リソース制約によるノイズモデルの下で、古典的な入力と出力を持つフォールトトレラント量子回路の基本的限界を特徴づける。
論文 参考訳(メタデータ) (2023-01-05T17:10:16Z) - Laziness, Barren Plateau, and Noise in Machine Learning [10.058827198658252]
量子機械学習における遅延とエンフバレンプラトーの違いについて論じる。
オーバーパラメトリゼーション方式では,変分量子アルゴリズムがノイズ耐性を持つことを示す。
論文 参考訳(メタデータ) (2022-06-19T02:58:14Z) - Demonstrating robust simulation of driven-dissipative problems on
near-term quantum computers [53.20999552522241]
量子コンピュータは物理学と化学における量子力学系のシミュレーションに革命をもたらす。
現在の量子コンピュータは、訂正されていないノイズ、ゲートエラー、デコヒーレンスのためにアルゴリズムを不完全に実行している。
ここでは、量子力学における最も難しい問題の1つとして、駆動散逸多体問題の解法が本質的にエラーに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2021-08-02T21:36:37Z) - Achieving fault tolerance against amplitude-damping noise [1.7289359743609742]
我々は,振幅減衰雑音の存在下で,フォールトトレラントな量子コンピューティングコンポーネントのプロトコルを開発する。
フォールトトレラントなエンコードガジェットの集合を記述し、ノイズの擬似閾値を計算する。
我々の研究は、量子フォールトトレランスのアイデアをターゲット雑音モデルに適用する可能性を実証している。
論文 参考訳(メタデータ) (2021-07-12T14:59:54Z) - Generalized quantum subspace expansion [0.2936007114555107]
本稿では,量子コンピュータにおける新しい量子部分空間法を提案する。
実質的に拡張された部分空間をフル活用することにより、与えられたハミルトニアンのスペクトルに存在するノイズを効率的に緩和することができる。
提案手法は,従来の誤り認識型QEM手法の利点を継承し,その欠点を克服する。
論文 参考訳(メタデータ) (2021-07-06T13:34:19Z) - Hardware-Efficient, Fault-Tolerant Quantum Computation with Rydberg
Atoms [55.41644538483948]
我々は中性原子量子コンピュータにおいてエラー源の完全な特徴付けを行う。
計算部分空間外の状態への原子量子ビットの崩壊に伴う最も重要なエラーに対処する,新しい,明らかに効率的な手法を開発した。
我々のプロトコルは、アルカリ原子とアルカリ原子の両方にエンコードされた量子ビットを持つ最先端の中性原子プラットフォームを用いて、近い将来に実装できる。
論文 参考訳(メタデータ) (2021-05-27T23:29:53Z) - Direct Quantum Communications in the Presence of Realistic Noisy
Entanglement [69.25543534545538]
本稿では,現実的な雑音に依拠する新しい量子通信方式を提案する。
性能分析の結果,提案手法は競争力のあるQBER, 利得, 利得を提供することがわかった。
論文 参考訳(メタデータ) (2020-12-22T13:06:12Z) - Boundaries of quantum supremacy via random circuit sampling [69.16452769334367]
Googleの最近の量子超越性実験は、量子コンピューティングがランダムな回路サンプリングという計算タスクを実行する遷移点を示している。
観測された量子ランタイムの利点の制約を、より多くの量子ビットとゲートで検討する。
論文 参考訳(メタデータ) (2020-05-05T20:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。