論文の概要: Optimal sampling of tensor networks targeting wave function's fast
decaying tails
- arxiv url: http://arxiv.org/abs/2401.10330v1
- Date: Thu, 18 Jan 2024 19:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:40:36.286554
- Title: Optimal sampling of tensor networks targeting wave function's fast
decaying tails
- Title(参考訳): 波動関数の高速減衰テールをターゲットとしたテンソルネットワークの最適サンプリング
- Authors: Marco Ballarin, Pietro Silvi, Simone Montangero and Daniel Jaschke
- Abstract要約: 等尺テンソルネットワーク状態に対する局所測定文字列の量子結果のサンプリングに最適戦略を導入する。
このアルゴリズムはサンプルの繰り返しを回避し、指数関数的に減衰する尾を持つサンプリング分布を効率的に行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce an optimal strategy to sample quantum outcomes of local
measurement strings for isometric tensor network states. Our method generates
samples based on an exact cumulative bounding function, without prior
knowledge, in the minimal amount of tensor network contractions. The algorithm
avoids sample repetition and, thus, is efficient at sampling distribution with
exponentially decaying tails. We illustrate the computational advantage
provided by our optimal sampling method through various numerical examples,
involving condensed matter, optimization problems, and quantum circuit
scenarios. Theory predicts up to an exponential speedup reducing the scaling
for sampling the space up to an accumulated unknown probability $\epsilon$ from
$\mathcal{O}(\epsilon^{-1})$ to $\mathcal{O}(\log(\epsilon^{-1}))$ for a
decaying probability distribution. We confirm this in practice with over one
order of magnitude speedup or multiple orders improvement in the error
depending on the application. Our sampling strategy extends beyond local
observables, e.g., to quantum magic.
- Abstract(参考訳): 等尺テンソルネットワーク状態に対する局所測定文字列の量子結果のサンプリングに最適戦略を導入する。
提案手法は,事前知識のない正確な累積有界関数に基づいて,最小のテンソルネットワーク収縮量でサンプルを生成する。
このアルゴリズムはサンプルの反復を避けるため、指数関数的に崩壊する尾を持つサンプリング分布を効率的に行う。
本稿では, 凝縮物, 最適化問題, 量子回路シナリオを含む様々な数値例を通して, 最適サンプリング法によって得られる計算上の利点を説明する。
理論は、蓄積された未知の確率まで空間をサンプリングするスケーリングを、$\mathcal{O}(\epsilon^{-1})$から$\mathcal{O}(\log(\epsilon^{-1}))$から$\mathcal{O}(\epsilon^{-1})$へと減少させる指数的なスピードアップを予測している。
実際にこれを、アプリケーションによって1桁以上のスピードアップまたは複数桁のエラー改善で確認する。
我々のサンプリング戦略は、例えば、局所観測可能なものから量子魔法まで拡張される。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Faster Sampling via Stochastic Gradient Proximal Sampler [28.422547264326468]
非log-concave分布からのサンプリングのための近位サンプリング器 (SPS) について検討した。
対象分布への収束性は,アルゴリズムの軌道が有界である限り保証可能であることを示す。
我々は、Langevin dynamics(SGLD)とLangevin-MALAの2つの実装可能な変種を提供し、SPS-SGLDとSPS-MALAを生み出した。
論文 参考訳(メタデータ) (2024-05-27T00:53:18Z) - Diffusion Posterior Sampling is Computationally Intractable [9.483130965295324]
後方サンプリングは、塗装、超解像、MRI再構成などのタスクに有用である。
暗号における最も基本的な仮定では、一方通行関数が存在する。
また,指数時間回帰サンプリングは,指数時間で逆転する一方向関数が存在するという強い仮定の下で,本質的に最適であることを示す。
論文 参考訳(メタデータ) (2024-02-20T05:28:13Z) - Sublinear scaling in non-Markovian open quantum systems simulations [0.0]
プロセステンソルを計算する数値的精度のアルゴリズムを導入する。
我々のアプローチでは、無限メモリを持つ環境に対して$mathcalO(nlog n)$の特異値分解しか必要としない。
論文 参考訳(メタデータ) (2023-04-11T15:40:33Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Random quantum circuits transform local noise into global white noise [118.18170052022323]
低忠実度状態におけるノイズランダム量子回路の測定結果の分布について検討する。
十分に弱くユニタリな局所雑音に対して、一般的なノイズ回路インスタンスの出力分布$p_textnoisy$間の相関(線形クロスエントロピーベンチマークで測定)は指数関数的に減少する。
ノイズが不整合であれば、出力分布は、正確に同じ速度で均一分布の$p_textunif$に近づく。
論文 参考訳(メタデータ) (2021-11-29T19:26:28Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Learning with Optimized Random Features: Exponential Speedup by Quantum
Machine Learning without Sparsity and Low-Rank Assumptions [8.08640000394814]
我々は,実行時特性を最適化した分布からサンプリングする量子アルゴリズムを開発した。
我々のアルゴリズムは、このサンプリングタスクの既知の古典的アルゴリズムと比較して、D$の指数的な高速化を実現している。
論文 参考訳(メタデータ) (2020-04-22T18:00:00Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z) - Online Sinkhorn: Optimal Transport distances from sample streams [0.0]
本稿では、2つの任意分布間のエントロピー規則化OT距離の新しいオンライン推定器を提案する。
古典的なシンクホーンアルゴリズムと比較して,本手法は各反復における新しいサンプルを利用して,真の正則化OT距離を一貫した推定を可能にする。
論文 参考訳(メタデータ) (2020-03-03T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。