論文の概要: Using Gaussian Boson Samplers to Approximate Gaussian Expectation Problems
- arxiv url: http://arxiv.org/abs/2502.19336v2
- Date: Thu, 27 Feb 2025 08:11:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 11:31:33.521098
- Title: Using Gaussian Boson Samplers to Approximate Gaussian Expectation Problems
- Title(参考訳): ガウスボソンサンプリングを用いたガウス期待問題の近似
- Authors: Jørgen Ellegaard Andersen, Shan Shan,
- Abstract要約: GBSサンプルを用いた2つの推定器がモンテカルロ(MC)推定器に指数的な高速化をもたらすことを示す。
正確には、指数的スピードアップは、これらの推定器が同じ精度に達することを保証されたサンプルサイズで定義される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gaussian Boson Sampling (GBS) have shown advantages over classical methods for performing some specific sampling tasks. To fully harness the computational power of GBS, there has been great interest in identifying their practical applications. In this study, we explore the use of GBS samples for computing a numerical approximation to the Gaussian expectation problem, that is to integrate a multivariate function against a Gaussian distribution. We propose two estimators using GBS samples, and show that they both can bring an exponential speedup over the plain Monte Carlo (MC) estimator. Precisely speaking, the exponential speedup is defined in terms of the guaranteed sample size for these estimators to reach the same level of accuracy $\epsilon$ and the same success probability $\delta$ in the $(\epsilon, \delta)$ multiplicative error approximation scheme. We prove that there is an open and nonempty subset of the Gaussian expectation problem space for such computational advantage.
- Abstract(参考訳): ガウスボソンサンプリング(GBS)は、特定のサンプリングタスクを実行するための古典的な手法よりも有利である。
GBSの計算能力を完全に活用するために、その実用的応用を特定することには大きな関心が寄せられている。
本研究では,ガウス分布に対して多変量関数を統合することを目的とした,ガウス予想問題に対する数値近似計算におけるGBSサンプルの利用について検討する。
GBS サンプルを用いた2つの推定器を提案し,それぞれがモンテカルロ(MC) 推定器上で指数的高速化を実現することを示す。
正確に言うと、指数的スピードアップは、これらの推定器が同じ精度のレベルに達することを保証されたサンプルサイズで定義され、同じ成功確率$\delta$ in the $(\epsilon, \delta)$ multiplicative error approximation scheme で定義される。
そのような計算上の優位性のために、ガウス予想問題空間の開かつ空でない部分集合が存在することを証明する。
関連論文リスト
- Rethinking Approximate Gaussian Inference in Classification [25.021782278452005]
分類タスクでは、ソフトマックス関数は予測確率を生成するためにユビキタスに使用される。
本稿では,予測の正確な計算を可能にする学習目的の簡単な変更を提案する。
提案手法は,大規模および小規模データセットに対するガウス推定法と組み合わせて評価する。
論文 参考訳(メタデータ) (2025-02-05T17:03:49Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - Finite-Time Regret of Thompson Sampling Algorithms for Exponential
Family Multi-Armed Bandits [88.21288104408556]
本研究では,指数関数族バンドイットに対するトンプソンサンプリング (TS) アルゴリズムの遺残について検討する。
最適な腕の過小評価を避けるために,新しいサンプリング分布を用いたトンプソンサンプリング(Expulli)を提案する。
論文 参考訳(メタデータ) (2022-06-07T18:08:21Z) - Probability Distribution of Hypervolume Improvement in Bi-objective Bayesian Optimization [5.586361810914231]
ハイパーボリューム改善(HVI)は、多目的ベイズ最適化アルゴリズムで一般的に用いられる。
両目的問題に対するHVIの確率分布の正確な表現を提供する。
本稿では,新たな取得関数である$varepsilon$-PoHVIを提案する。
論文 参考訳(メタデータ) (2022-05-11T13:59:35Z) - Efficient approximation of experimental Gaussian boson sampling [2.805766654291013]
最近の2つの目覚しい実験は、最大144個の出力モードで、プログラム不可能な線形干渉計としきい値検出器を備えたガウスボソンサンプリング(GBS)を行った。
ここでは、これらの実験よりも全変動距離とクルバック・リーブラーの偏差がよい古典的なサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-23T17:47:06Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Faster Wasserstein Distance Estimation with the Sinkhorn Divergence [0.0]
正方形ワッサーシュタイン距離(英: squared Wasserstein distance)は、非パラメトリックな設定における確率分布を比較する量である。
そこで本研究では,シンクホーンの発散量を用いて推定する手法を提案する。
滑らかな密度に対して、この推定器はサンプルの複雑さに匹敵するが、より高い正規化レベルが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-15T06:58:16Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。