論文の概要: Data-driven adaptive quantum error mitigation for probability distribution
- arxiv url: http://arxiv.org/abs/2511.13231v1
- Date: Mon, 17 Nov 2025 10:50:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.136449
- Title: Data-driven adaptive quantum error mitigation for probability distribution
- Title(参考訳): 確率分布に対するデータ駆動適応型量子誤差低減法
- Authors: Rion Shimazu, Suguru Endo, Shigeo Hakkaku, Shinobu Saito,
- Abstract要約: 確率分布に対する量子誤差緩和(QEM)の精度を改善するための2つのプロトコルを提案する。
1つ目は、異なるQEM戦略を用いて得られた確率分布を比較するN-versionプログラミング法である。
2つ目は、適切な外挿戦略を選択するための一貫性に基づく方法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum error mitigation (QEM) has been proposed as a class of hardware-friendly error suppression techniques. While QEM has been primarily studied for mitigating errors in the estimation of expectation values of observables, recent works have explored its application to estimating noiseless probability distributions. In this work, we propose two protocols to improve the accuracy of QEM for probability distributions, inspired by techniques in software engineering. The first is the N-version programming method, which compares probability distributions obtained via different QEM strategies and excludes the outlier distribution, certifying the feasibility of the error-mitigated distributions. The second is a consistency-based method for selecting an appropriate extrapolation strategy. Specifically, we prepare $K$ data points at different error rates, choose $L<K$ of them for extrapolation, and evaluate error-mitigated results for all $\binom{K}{L}$ possible choices. We then select the extrapolation method that yields the smallest variance in the error-mitigated results. This procedure can also be applied bitstring-wise, enabling adaptive error mitigation for each probability in the distribution.
- Abstract(参考訳): QEM(Quantum error mitigation)は、ハードウェアフレンドリーなエラー抑制手法のクラスとして提案されている。
QEMは主に可観測物の予測値の推定における誤差の軽減のために研究されているが、近年の研究ではノイズのない確率分布の推定への応用が検討されている。
本研究では,確率分布におけるQEMの精度向上のための2つのプロトコルを提案する。
1つ目は、異なるQEM戦略を用いて得られた確率分布を比較し、外乱分布を除外し、誤差緩和された分布の有効性を証明するN-versionプログラミング法である。
2つ目は、適切な外挿戦略を選択するための一貫性に基づく方法である。
具体的には、異なるエラー率で$K$のデータポイントを作成し、外挿のために$L<K$を選択し、すべての$\binom{K}{L}$可能な選択に対してエラー軽減結果を評価する。
次に,誤差緩和結果の最小分散を導出する外挿法を選択する。
この手順はビットストリング的にも適用でき、分布の各確率に対する適応的な誤差軽減を可能にする。
関連論文リスト
- Classification with Reject Option: Distribution-free Error Guarantees via Conformal Prediction [1.1380162891529535]
我々は、二項分類におけるリジェクションオプションによる機械学習のアプローチを定式化する。
結果の誤差率に関する理論的保証を提供する。
エラー・リジェクト曲線は、エラーレートとリジェクトレートの間のトレードオフを示している。
論文 参考訳(メタデータ) (2025-06-26T23:04:25Z) - Distributionally Robust Active Learning for Gaussian Process Regression [16.85444622474742]
本稿では,GPRの最悪の予測誤差を効果的に低減する2つのAL手法を提案する。
最短ケースの予測二乗誤差の上限が上界であることを示し、この誤差は穏やかな条件下で有限個のデータラベルによって任意に小さくなることを示唆する。
論文 参考訳(メタデータ) (2025-02-24T06:14:27Z) - DistPred: A Distribution-Free Probabilistic Inference Method for Regression and Forecasting [14.390842560217743]
本稿では、回帰予測タスクのためのDistPredという新しい手法を提案する。
予測分布と対象分布の差分を測定するための適切なスコアリングルールを、微分可能な離散形式に変換する。
これにより、モデルは単一のフォワードパスで多数のサンプルをサンプリングし、応答変数の潜在的分布を推定することができる。
論文 参考訳(メタデータ) (2024-06-17T10:33:00Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Symmetric Q-learning: Reducing Skewness of Bellman Error in Online
Reinforcement Learning [55.75959755058356]
深層強化学習では、状態や行動の質を評価するために、価値関数を推定することが不可欠である。
最近の研究では、値関数を訓練する際の誤差分布はベルマン作用素の特性のためにしばしば歪むことが示唆されている。
そこで我々は,ゼロ平均分布から発生する合成ノイズを目標値に加え,ガウス誤差分布を生成するSymmetric Q-learning法を提案する。
論文 参考訳(メタデータ) (2024-03-12T14:49:19Z) - Will My Robot Achieve My Goals? Predicting the Probability that an MDP Policy Reaches a User-Specified Behavior Target [56.99669411766284]
自律的なシステムがタスクを実行する場合、ユーザの目標を達成する確率のキャリブレーションされた見積もりを維持する必要がある。
本稿では,ユーザの目標が目標間隔として指定される設定について検討する。
我々は、共形予測を反転させて確率推定を計算する。
論文 参考訳(メタデータ) (2022-11-29T18:41:20Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。