論文の概要: A quantum gradient descent algorithm for optimizing Gaussian Process models
- arxiv url: http://arxiv.org/abs/2503.17780v1
- Date: Sat, 22 Mar 2025 14:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:35:14.161532
- Title: A quantum gradient descent algorithm for optimizing Gaussian Process models
- Title(参考訳): ガウス過程モデル最適化のための量子勾配降下アルゴリズム
- Authors: Junpeng Hu, Jinglai Li, Lei Zhang, Shi Jin,
- Abstract要約: ガウス過程モデルを最適化するための量子勾配降下アルゴリズムを提案する。
本アルゴリズムは,ログ限界確率の勾配の計算において指数的高速化を実現する。
- 参考スコア(独自算出の注目度): 28.16587217223671
- License:
- Abstract: Gaussian Process Regression (GPR) is a nonparametric supervised learning method, widely valued for its ability to quantify uncertainty. Despite its advantages and broad applications, classical GPR implementations face significant scalability challenges, as they involve matrix operations with a cubic complexity in relation to the dataset size. This computational challenge is further compounded by the demand of optimizing the Gaussian Process model over its hyperparameters, rendering the total computational cost prohibitive for data intensive problems. To address this issue, we propose a quantum gradient descent algorithm to optimize the Gaussian Process model. Taking advantage of recent advances in quantum algorithms for linear algebra, our algorithm achieves exponential speedup in computing the gradients of the log marginal likelihood. The entire gradient descent process is integrated into the quantum circuit. Through runtime analysis and error bounds, we demonstrate that our approach significantly improves the scalability of GPR model optimization, making it computationally feasible for large-scale applications.
- Abstract(参考訳): ガウス過程回帰(Gaussian Process Regression, GPR)は、非パラメトリックな教師あり学習法であり、不確実性を定量化する能力で広く評価されている。
その利点と幅広い応用にもかかわらず、古典的なGPRの実装は、データセットサイズに関して3乗の複雑さを持つ行列演算を含むため、大きなスケーラビリティの課題に直面している。
この計算課題は、ガウス過程モデルをハイパーパラメータ上で最適化する要求によってさらに複雑化され、データ集約問題では計算コストの合計が禁止される。
この問題に対処するため,ガウス過程モデルを最適化する量子勾配降下アルゴリズムを提案する。
線形代数の量子アルゴリズムの最近の進歩を生かして、このアルゴリズムは対数限界確率の勾配を計算する指数的高速化を実現する。
勾配降下過程全体を量子回路に統合する。
実行時解析とエラー境界により,GPRモデル最適化のスケーラビリティが大幅に向上し,大規模アプリケーションで計算可能となることを示す。
関連論文リスト
- Quantum Maximum Entropy Inference and Hamiltonian Learning [4.9614587340495]
この研究は、最大エントロピー推論とグラフィカルモデルの学習のためのアルゴリズムを量子領域に拡張する。
量子反復スケーリング(QIS)として知られる一般化は単純であるが、重要な課題は量子問題インスタンスの非可換性にある。
準ニュートン法によるQISとGDの性能向上について検討する。
論文 参考訳(メタデータ) (2024-07-16T08:11:34Z) - Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Pure Quantum Gradient Descent Algorithm and Full Quantum Variational
Eigensolver [0.7149735232319818]
勾配勾配勾配勾配法は広く採用されている最適化法である。
単一オラクル計算のみを必要とする新しい量子ベース勾配計算法を提案する。
我々は量子勾配降下法をうまく実装し、変分量子固有解法(VQE)に適用した。
論文 参考訳(メタデータ) (2023-05-07T05:52:41Z) - Quantum Gaussian Process Regression for Bayesian Optimization [0.0]
本稿では,パラメータ化量子回路に基づく量子カーネルを用いたガウス過程の回帰手法を提案する。
ハードウェア効率の良い特徴写像とグラム行列の注意的な正則化を用いて、得られた量子ガウス過程の分散情報を保存できることを実証する。
論文 参考訳(メタデータ) (2023-04-25T15:38:19Z) - Scalable Gaussian Process Hyperparameter Optimization via Coverage
Regularization [0.0]
本稿では,予測の不確かさの堅牢性を改善するために,Maternカーネルのスムーズさと長大パラメータを推定するアルゴリズムを提案する。
数値実験で示すように,高いスケーラビリティを維持しつつ,残余可能性よりも改善されたUQを実現する。
論文 参考訳(メタデータ) (2022-09-22T19:23:37Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。