論文の概要: A simpler Gaussian state-preparation
- arxiv url: http://arxiv.org/abs/2508.03987v1
- Date: Wed, 06 Aug 2025 00:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.481093
- Title: A simpler Gaussian state-preparation
- Title(参考訳): より単純なガウス状態準備
- Authors: Parker Kuklinski, Benjamin Rempfer, Kevin Obenland, Justin Elenewski,
- Abstract要約: ガウス分布を効率的に状態保存する能力は、量子アルゴリズムの成功に不可欠である。
我々は、正確に$n-1回転、$(n-2)(n-2)二量子制御回転、および$lfloor(n-1)/2rfloor$ ancillaを用いて、$n$量子ガウス状態の状態前処理を行う新しい直感的な方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to efficiently state-prepare Gaussian distributions is critical to the success of numerous quantum algorithms. The most popular algorithm for this subroutine (Kitaev-Webb) has favorable polynomial resource scaling, however it faces enormous resource overheads making it functionally impractical. In this paper, we present a new, more intuitive method which uses exactly $n-1$ rotations, $(n-1)(n-2)/2$ two-qubit controlled rotations, and $\lfloor(n-1)/2\rfloor$ ancilla to state-prepare an $n$-qubit Gaussian state. We then apply optimizations to the circuit to render it linear in T-depth. This method can be extended to state-preparations of complex functions with polynomial phase.
- Abstract(参考訳): ガウス分布を効率的に状態保存する能力は、多数の量子アルゴリズムの成功に不可欠である。
このサブルーチン(Kitaev-Webb)の最も一般的なアルゴリズムは、多項式リソースのスケーリングが好まれるが、膨大なリソースオーバーヘッドに直面し、機能的に非現実的である。
本稿では, 正確に$n-1$回転, $(n-1)(n-2)/2$2-qubit制御回転, $\lfloor(n-1)/2\rfloor$ ancilla を用いて, $n$-qubit Gaussian状態の状態を調整した新しい直感的手法を提案する。
次に、回路に最適化を適用してT深度で線形に描画する。
この方法は多項式位相を持つ複素関数の状態準備にまで拡張することができる。
関連論文リスト
- Fast Minimization of Expected Logarithmic Loss via Stochastic Dual
Averaging [8.990961435218544]
本稿では,対数障壁を用いたB$-sample双対平均化法を提案する。
Poisson逆問題に対して、我々のアルゴリズムは$smashtildeO(d3/varepsilon2)$ timeで$varepsilon$解を得る。
量子状態トモグラフィーの最大線量推定を計算するとき、我々のアルゴリズムは $smashtildeO(d3/varepsilon2)$ time で $varepsilon$-optimal Solution を得る。
論文 参考訳(メタデータ) (2023-11-05T03:33:44Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Quantum Simulation of the First-Quantized Pauli-Fierz Hamiltonian [0.5097809301149342]
我々は、我々の分割と形式主義の征服を通じて、大きな$Lambda$の量子化よりも優れたスケーリングと量子化を得られることを示す。
また,マルチコントロールされたXゲート群を実装する新しい方法を含む,ゲート最適化のための新しいアルゴリズムおよび回路レベル技術も提供する。
論文 参考訳(メタデータ) (2023-06-19T23:20:30Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - Learning Polynomial Transformations [41.30404402331856]
ガウスの高次元二次変換を学習する問題を考察する。
我々の結果はガウス分布だけでなく、任意の不変な入力分布にまで拡張される。
また、テンソル環分解の証明可能な保証を持つ最初の分解時間アルゴリズムを与える。
論文 参考訳(メタデータ) (2022-04-08T17:59:31Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Quantum Algorithms for Ground-State Preparation and Green's Function
Calculation [5.28670135448572]
周波数領域における多体グリーン関数の基底状態準備と計算のための射影量子アルゴリズムを提案する。
アルゴリズムはユニタリ演算(LCU)の線形結合に基づいており、基本的には量子資源のみを使用する。
論文 参考訳(メタデータ) (2021-12-10T18:39:55Z) - Gaussian Process Bandit Optimization with Few Batches [49.896920704012395]
有限腕バンディットアルゴリズムにインスパイアされたバッチアルゴリズムを導入する。
O(log T)$ batches in time horizon $T$.sqrtTgamma_T)$ using $O(log T)$ batches in time horizon。
さらに,アルゴリズムの修正版を提案し,バッチ数によって後悔がどう影響するかを特徴付ける。
論文 参考訳(メタデータ) (2021-10-15T00:54:04Z) - 2nd-order Updates with 1st-order Complexity [0.0]
関数の2次情報を効率よく計算し(f$)、数値近似を支援することが長年の目標であった。
ここでは、基礎物理学と数値近似のみを用いて、そのような情報を$cal O(N)$ complexityのコストで正確に得る方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:47:51Z) - Provably Efficient Reinforcement Learning for Discounted MDPs with
Feature Mapping [99.59319332864129]
本稿では,割引決定(MDP)のための強化学習について検討する。
本稿では,特徴写像を利用した新しいアルゴリズムを提案し,$tilde O(dsqrtT/ (1-gamma)2)$ regretを求める。
以上の結果から,提案した強化学習アルゴリズムは,最大1-γ-0.5$の係数でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T17:08:54Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。