論文の概要: Sublogarithmic Distillation in all Prime Dimensions using Punctured Reed-Muller Codes
- arxiv url: http://arxiv.org/abs/2510.10852v1
- Date: Sun, 12 Oct 2025 23:29:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.130769
- Title: Sublogarithmic Distillation in all Prime Dimensions using Punctured Reed-Muller Codes
- Title(参考訳): Punctured Reed-Muller Codes を用いたすべての素数次元における部分対数蒸留
- Authors: Tanay Saha, Shiroman Prakash,
- Abstract要約: 解析的にトラクタブルな句読解法では,サブ対数的オーバーヘッドを達成するために必要なクォーディットの数は,$p$の増加とともに劇的に減少することがわかった。
我々はまた、最適な穿刺位置の小さな計算探索を行い、いくつかの興味深い三角符号を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magic state distillation is a leading but costly approach to fault-tolerant quantum computation, and it is important to explore all possible ways of minimizing its overhead cost. The number of ancillae required to produce a magic state within a target error rate $\epsilon$ is $O(\log^{\gamma} (\epsilon^{-1}))$ where $\gamma$ is known as the yield parameter. Hastings and Haah derived a family of distillation protocols with sublogarithmic overhead (i.e., $\gamma < 1$) based on punctured Reed-Muller codes. Building on work by Campbell \textit{et al.} and Krishna-Tillich, which suggests that qudits of dimension $p>2$ can significantly reduce overhead, we generalize their construction to qudits of arbitrary prime dimension $p$. We find that, in an analytically tractable puncturing scheme, the number of qudits required to achieve sublogarithmic overhead decreases drastically as $p$ increases, and the asymptotic yield parameter approaches $\frac{1}{\ln p}$ as $p \to \infty$. We also perform a small computational search for optimal puncture locations, which results in several interesting triorthogonal codes, including a $[[519,106,5]]_5$ code with $\gamma=0.99$.
- Abstract(参考訳): マジックステート蒸留は、フォールトトレラントな量子計算に対する先導的だがコストのかかるアプローチであり、オーバーヘッドコストを最小化するためのあらゆる方法を検討することが重要である。
ターゲットエラー率$\epsilon$内でマジック状態を生成するために必要なアンシラの数は、$O(\log^{\gamma} (\epsilon^{-1}))$である。
Hastings と Haah は、置換されたリード・ミュラー符号に基づいて、対数的オーバーヘッド ($\gamma < 1$) を持つ蒸留プロトコルの族を派生した。
Campbell \textit{et al } と Krishna-Tillich による研究に基づいて、次元 $p>2$ の立方体はオーバーヘッドを大幅に減少させることができることを示唆し、それらの構成を任意の素次元 $p$ の立方体に一般化する。
解析的にトラクタブルな句読点法では、$p$が増加するにつれて、サブ対数的オーバーヘッドを達成するために必要なクォーディットの数が劇的に減少し、漸近的収率パラメータが$\frac{1}{\ln p}$として$p \to \infty$に近づく。
また、最適な穿刺位置を計算し、$[[519,106,5]]_5$と$\gamma=0.99$を含むいくつかの興味深い三角符号を生成する。
関連論文リスト
- Constant-Overhead Magic State Distillation [10.97201040724828]
マジックステート蒸留は、フォールトトレラント量子計算において重要ながリソース集約的なプロセスである。
既存のプロトコルは、多少の$gamma > 0$で、多対数的に増加するオーバーヘッドを必要とする。
我々は$mathcalO(1)$オーバーヘッド、つまり最適な$gamma = 0$を達成するプロトコルを開発する。
論文 参考訳(メタデータ) (2024-08-14T18:31:22Z) - Provably Efficient Reinforcement Learning with Multinomial Logit Function Approximation [67.8414514524356]
本稿では,MNL関数近似を用いたMDPの新たなクラスについて検討し,状態空間上の確率分布の正当性を保証する。
その大きな利点にもかかわらず、非線形関数を組み込むことは、統計的および計算効率の両方において重大な課題を提起する。
我々は,$widetildemathcalO(dH2sqrtK + kappa-1d2H2)$を後悔するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-27T11:31:54Z) - Low Overhead Qutrit Magic State Distillation [0.0]
量子ビットではなく量子ビットを用いることで、フォールトトレラントな量子コンピューティングに関連するオーバーヘッドコストを大幅に削減できることを示す。
9m-k, k, 2]]_3$ triorthogonal qutrit error-correcting codes for any positive $m$ and $k$ with $k leq 3m-2 integers。
論文 参考訳(メタデータ) (2024-03-10T14:56:07Z) - Tight Bounds for $\gamma$-Regret via the Decision-Estimation Coefficient [88.86699022151598]
任意の構造化バンディット問題に対する$gamma$-regretの統計的特徴を与える。
この$gamma$-regretは、関数クラス$mathcalF$上の構造化バンディット問題に現れる。
論文 参考訳(メタデータ) (2023-03-06T17:54:33Z) - Low-degree learning and the metric entropy of polynomials [44.99833362998488]
少なくとも$Omega(sqrtvarepsilon)2dlog n leq log mathsfM(mathscrF_n,d,|cdot|_L,varepsilon)は2辺の推定値$c(1-varepsilon)2dlogを満たす。
論文 参考訳(メタデータ) (2022-03-17T23:52:08Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。