論文の概要: Techniques for learning sparse Pauli-Lindblad noise models
- arxiv url: http://arxiv.org/abs/2311.15408v4
- Date: Thu, 05 Dec 2024 12:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 11:19:16.571313
- Title: Techniques for learning sparse Pauli-Lindblad noise models
- Title(参考訳): スパースパウリ・リンドブラッドノイズモデル学習技術
- Authors: Ewout van den Berg, Pawel Wocjan,
- Abstract要約: パウリ回転に基づくツイリングを導入し、単一量子学習訂正シーケンスを自動生成する。
また,グラフカラー化と一様被覆配列を利用して学習基地数を最小限に抑える基底選択手法を提案する。
- 参考スコア(独自算出の注目度): 0.2630859234884723
- License:
- Abstract: Error-mitigation techniques such as probabilistic error cancellation and zero-noise extrapolation benefit from accurate noise models. The sparse Pauli-Lindblad noise model is one of the most successful models for those applications. In existing implementations, the model decomposes into a series of simple Pauli channels with one- and two-local terms that follow the qubit topology. While the model has been shown to accurately capture the noise in contemporary superconducting quantum processors for error mitigation, it is important to consider higher-weight terms and effects beyond nearest-neighbor interactions. For such extended models to remain practical, however, we need to ensure that they can be learned efficiently. In this work we present new techniques that accomplish exactly this. We introduce twirling based on Pauli rotations, which enables us to automatically generate single-qubit learning correction sequences and reduce the number of unique fidelities that need to be learned. In addition, we propose a basis-selection strategy that leverages graph coloring and uniform covering arrays to minimize the number of learning bases. Taken together, these techniques ensure that the learning of the extended noise models remains efficient, despite their increased complexity.
- Abstract(参考訳): 確率的誤差キャンセルやゼロノイズ外挿のような誤差緩和技術は、正確なノイズモデルから恩恵を受ける。
スパースなパウリ・リンドブラッドノイズモデルは、これらのアプリケーションにとって最も成功したモデルの一つである。
既存の実装では、モデルは、キュービット位相に従う一項と二項の局所項を持つ一連の単純なパウリチャネルに分解される。
このモデルは、現代の超伝導量子プロセッサの誤差軽減のためのノイズを正確に捉えることが示されているが、最寄りの相互作用を超えた高次項や効果を考慮することが重要である。
しかし、そのような拡張モデルが実用的であり続けるためには、それらが効率的に学習できることを保証する必要がある。
本研究では,これを実現する新しい手法を提案する。
パウリ回転に基づくツイリングを導入し、単一のキュービットの学習訂正シーケンスを自動生成し、学習するべき特異な要素の数を減らすことができる。
さらに,グラフカラー化と一様被覆配列を利用して学習基地数を最小限に抑える基底選択手法を提案する。
これらの手法は、複雑さが増大しているにもかかわらず、拡張されたノイズモデルの学習が効率的であることを保証する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Information limits and Thouless-Anderson-Palmer equations for spiked matrix models with structured noise [19.496063739638924]
構造スパイクモデルに対するベイズ推定の飽和問題を考える。
適応的なThouless-Anderson-Palmer方程式の理論にインスパイアされた効率的なアルゴリズムを用いて、統計的限界を予測する方法を示す。
論文 参考訳(メタデータ) (2024-05-31T16:38:35Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - A Metalearned Neural Circuit for Nonparametric Bayesian Inference [4.767884267554628]
機械学習の分類への応用のほとんどは、バランスの取れたクラスの閉じた集合を前提としている。
これは、クラス発生統計が長い尾の力量分布に従うことがしばしばある実世界と矛盾する。
本研究では,非パラメトリックベイズモデルから誘導バイアスを抽出し,人工ニューラルネットワークに転送する手法を提案する。
論文 参考訳(メタデータ) (2023-11-24T16:43:17Z) - Efficient learning of Sparse Pauli Lindblad models for fully connected
qubit topology [0.0]
近年の研究では、量子ビットクロストークをキャプチャする基礎となるノイズモデルを学習することにより、エラーの軽減が実用的な量子コンピューティングの境界を押し進めることが示されている。
我々は、ハードウェア上でそのようなノイズモデルを完全接続で学習するための理論的要件を拡張した。
論文 参考訳(メタデータ) (2023-11-20T09:55:24Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Noise Estimation for Generative Diffusion Models [91.22679787578438]
そこで本研究では,任意のステップの雑音パラメータを調整可能な,単純で汎用的な学習手法を提案する。
私たちのアプローチは計算コストが無視できるものです。
論文 参考訳(メタデータ) (2021-04-06T15:46:16Z) - Robust Learning under Strong Noise via SQs [5.9256596453465225]
各SQ学習可能なクラスは、幅広いノイズモデルに対して、OPT + $epsilon Misilon誤分類誤差を持つ効率的な学習アルゴリズムを許容することを示す。
この設定は、既知の雑音確率を持つRCNの下で広く研究されている問題分類を大幅に一般化する。
論文 参考訳(メタデータ) (2020-10-18T21:02:26Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。